Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Собирайте грибы, готовьте и общайтесь. Экономический симулятор лесной фермы

Грибники и Кланы

Симуляторы, Стратегии, Фермы

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
1146
monobogdan
monobogdan
Посты о ремонте и моддинге ретрогаджетов.
TECHNO BROTHER

Ответ на пост «Почему видюхи стали золотом — история Nvidia: от позорного эпик-фейла до ИИ-монстра»⁠⁠1

21 час назад

Если честно, статья - полный трешак) Написано быдлоязыком, отсутствует авторский стиль и почерк, ноль фактчекинга, обесценивание техник, применявшихся в те годы и подмена фактов. Как только автору указали на то, что 2D-карточки в 90-х уже были не "тупыми" RAMDAC'ами, выводившими фреймбуфер на монитор, а вполне полноценными 2D-акселлераторами с аппаратным блиттером и функциями для рисования примитивов - сразу слив мол "ну это для ботанов, а тут простым языком о бизнесе". Что-ж, если есть желание примкнуть к "ботанам" и почитать нормальные статьи про GPU тех лет - милости прошу в мои материалы про 3dfx и S3 ViRGE, которые набрали по 300 и 700 плюсиков, а не 3к:

Ответ на пост «Почему видюхи стали золотом — история Nvidia: от позорного эпик-фейла до ИИ-монстра»

Игровая легенда из 90-х: Как работала 3dfx Voodoo «под капотом»? Пишем 3D-приложение нуля на Glide (1/2)

3D видеокарта-«декселератор» из 90-х. Как работала S3 ViRGE «под капотом»?

Показать полностью 1
[моё] История компании Nvidia Geforce Видеокарта Искусственный интеллект Длиннопост Ответ на пост
86
3828
arefyev.ivan
arefyev.ivan
Серия Истории компаний

Почему видюхи стали золотом — история Nvidia: от позорного эпик-фейла до ИИ-монстра⁠⁠1

1 день назад

Парадоксальная ситуевина возникла однажды в США в начале 90-ых, когда компы были уже чуть-ли не в каждом втором доме, но графика в них была откровенным дерьмом. Хотя геймеры тогда нереально кайфовали, для них это дерьмо тогда казалось какой-то магией, но у профессиональных инженеров глаза вытекали от этого убожества.

«Однажды мы станем большими и знаменитыми, и эта фотография будет крутой» - Роберт Чонгор (слева) - один из самых первых сотрудников Nvidia

«Однажды мы станем большими и знаменитыми, и эта фотография будет крутой» - Роберт Чонгор (слева) - один из самых первых сотрудников Nvidia

Вот если взять ту же Wolfenstein 3D — она ведь на самом деле вовсе не 3D была, а псевдо 3D — где враги были картонными, посреди плоских коридоров. И все это еще на каких-то жалких 20 фипиэс.

А все, потому что бедолаге центральному процессору приходилось все делать самому: не только разматывать все вычисления, но и картинку даже рисовать.

И вот это безобразие заметили инженеры Дженсен Хуанг, Кёртис Прим и Крис Малаховски. Они допетрили, что надо создать чисто графический чип, и тогда геймеры будут расхватывать видюхи с их чипом как горячие чебуреки, а они будут грести бабло лопатами.

И обгонят всех конкурентиков, которые тогда все еще толкали свои 2D-бревна, которые тупо не осиливали ни какой ни математики, ни геометрии, а просто тупо рисовали в плоскости то, что центральный проц им подсовывал.

А 3D это уже совсем другой разговор, это целый мозг для геометрии, который сам создает миры из полигонов. На дворе уже 90-ые во всю шагали, но еще никто почему-то не догадался сделать реальный 3D-чип доступный любому на ПК. Вот так вот и появилась Nvidia 5 апреля 1993-го.

У пацанов была вообще мощная репутация в кремниевой долине, как скиловых инженеров, поэтому они вообще на изи насуетили два мульта инвестиций, затарились оборудованием и давай пилить свой революционный чип, который, по их задумке, опрокинет всю индустрию.

И вот в сентябре 1995 они выкатили свой ультранавороченный чип NV1, но его вдруг внезапно в труху ушатала компьютерная игра Doom II — та самая стреллялка, где ты по марсу бегаешь и шмаляешь в демонов.

Эта игра мгновенно стала хитом и разлеталась миллионными тиражами. И чтобы в нее играть, даже видеокарту не надо было покупать. Потому что она тоже была псевдо-3D, и графика рисовалась не в видеокарте, а в CPU. Поэтому не было смысла покупать дорогущую видюху с NV1 за 399 баксов, когда игра буквально летала на дешевых 2D-бревнах (VGA) за 100 баксов. А на NV1 наоборот даже дико лагала и тормозила из-за несовместимости ее навороченной архитектуры.

Но в следующем году вдруг выходит революционный Quake, который был уже реально трехмерный, а не псевдо какой-то. Казалось бы, ну вот оно, спасение.

Но тут вылез дикий косяк. Рисовалка Quake была заточена чисто под треугольные полигоны, тогда как внутрянка NV1 рисовала какими-то изогнутыми квадратами, и поэтому чип был жутко не совместим с игрой Quake, которая в итоге дико лагала и тормозила.

А вот видюха Voodoo Graphics от конкурентов 3dfx, которая вышла в 1996, фурычила вообще по красоте, игры на ней просто летали, потому что она думала чисто треугольниками, и поэтому выдавала невероятный графон и поэтому стала культовой в те времена!

Voodoo Graphics

Voodoo Graphics

Короче ребятки по незнанке переборщили и сварганили слишком хитровыдуманный чип, что даже по сей день какие-то типы на реддите талдычат мол:

— «Эти мудилы, конченные так и не извинились за то, каким позорищем было их четырёхугольное говно!».

Клиенты тогда просто тупо возвращали карты с этим архитектурным чудовищем обратно в магазы. В итоге к весне 1996 производитель видеокарт Diamond Multimedia, взял, да и вернул обратно почти все из 250 тыщ заказанных чипов.

Diamond EDGE (NV1)

Diamond EDGE (NV1)

Это был просто ЭПИК ФЭЙЛ!

Nvidia летела к банкротству. Сотрудники сидели кислые — атмосфера хоть топор вешай. Дженсен был директором, поэтому чувствовал особый вид стыда и страха. Даже мамаша Дженсена орала, чтобы он срочно уволился из какой-то Nvidia и вернулся на свою престижную работу, как все нормальные люди.

Но Дженсен не из тех, кто сдается. Он наконец-то одуплился, что инновации ради инноваций шляпа полная. Важно не то, насколько ты умный, а насколько совместимый. И он берет такой и собирает всех работяг и кричит мол:

— «Пацаны, хватит полировать говно. Будем пилить чипы чисто под треугольники как все нормальные люди».

Но ребятки, итак, уже сожгли аж 15 мультов. И сидели, ясное дело, в жесточайшем минусе. А для нового чипа, опять же, нужны были новые инвестиции. Но Дженсен взял и снова с легкостью насуетил 3 мульта. Потому что инвесторы дико верили в него, потому что он был одержимым руководителем и просто конченным трудоголиком, который никогда не сдается, быстро переобувается, и по чесноку признает свои косяки. Такое супер-комбо хороших качеств редко встретишь в людях.

Дженсен

Дженсен

Только на этот раз инвесторы поставили жесткое условие, чтобы ребята работали максимально быстро и вату больше не катали. Дженсен пахал аж до полуночи, а некоторые сотрудники и вовсе ишачили на работе даже до утра.

А чтобы еще сильнее ускориться, Дженсен взял и аж на целый миллион купил эмулятор чипов. Эта такая приблуда, которая позволяла теснить чип виртуально, даже не изготавливая его, что не хило сокращало время. И в итоге, хоть этот эмулятор и сожрал аж треть инвестиций, но зато они выкатили новый чип RIVA 128 всего аж за полгода, хотя обычно на такое уходило целых два года.

Этот чип сразу взорвал рынок в 1997-ом! Ведь у него была самая мощная в мире начинка с рекордной 128-ми битной шиной! По результатам тестов чип порвал Voodoo в клочья и вообще все что было до этого. Игры, которые раньше еле ползали, теперь сразу ожили и полетели как ураган.

Но главная его фишка была в дикой сочетабельности, он был первым, кто мог рендерить и 2D, и 3D без плясок с бубном — фул комплект. Это была просто песня для кошелька простого геймера!

Каждый уважающий себя геймер обязан был купить этот чип. Он стал народным и прославил Nvidia. Все конкуренты в один миг протухли на фоне Nvidia и в непонятках репу чесали. За четыре месяца сбагрили более миллиона этих чипов, и за весь 1997-ый подняли на этом 29 мультов.

Но радоваться было рано, счастье-же не вечно. В этой сфере одна ошибка и ты труп. А ошибки неизбежны — компании тогда банкротились пачками.

Поэтому Дженсен подорвался штудировать бизнес-литературу. А тогда в 1997-ом как раз вышла очень необычная книжулька — «Дилемма Новатора» автора Клейтона Кристенсена, которая Дженсена торкнула до глубины души.

Потому что там как раз было написано, что пока ты почиваешь на лаврах, тебя уже полюбому какой-нибудь конкурент незаметно обходит сзади и готовится незаметно отчпокать — реальные угрозы идут не с верху рынка, а с низу, потому что именно там зарождается самые опасные бомбы.

Поэтому Дженсен начал как нарколога СУПЕР пристально за всем наблюдать, и вдруг заметил, что та самая сверх популярная Quake еле-еле вывозила замесы в мультиплеере с толпами одновременных игроков.

И уже в июне 1998-го они берут и выкатывают новый чип Riva TNT, заточенный чисто под эту игрушку, за счет того, что умел думать в параллель! Обрабатывая миллионы операций одновременно.

Создателю Quake Джону Кармаку просто бошку сорвало и он подорвался активно рекомендить всей своей бескрайней армии геймеров, что в Quake в обяз надо шпилить чисто на Nvidia.

Джон Кармак

Джон Кармак

Хотя в других играх на DirextX чип Riva TNT, честно говоря, тормозил и лагал, но Quake на нем реально был монстром! В итоге за 1998-ой нарубили бабла уже в пять раз больше чем за предыдущий год — уже аж 158 мультов!

И уже в январе 1999 Nvidia снова выпускает уже новый чип RIVA TNT2. Он хоть и грелся как печка, но в киберспорте был просто ИМБОЙ.

На этом чипе играл легендарный киберспортсмен — Fatal1ty, который рубился в Quake по 8-10 часов в сутки. Он юзал именно TNT2, потому что другие видюхи давали тогда максимум только до 30 фпс, тогда как новая параллельная приблуда TNT2 выдавала просто сумасшедший фипиэс — аж до 60, и где-то даже до 70 фпс.

Fatal1ty (Джонатан Вендел)

Fatal1ty (Джонатан Вендел)

Это давало ему нереальное преимущество в замесах. Он с тех пор выиграл десятки турниров и аж семь лет подряд занимал первые места.  Nvidia на халяву подгоняла ему железо, а он взамен пиарил Nvidia при любой возможности. Он апгрейдил свою карту каждые полгода, позже каждый уважающий себя про-геймер стал делать также.

Невероятно, но уже прям в том же 1999 году опять выкатили новую карту GeForce 256, про которую Дженсен тогда орал, что это первый чип уже с целым GPU — с графическим процессором! Тогда это прозвучало, как гром среди ясного неба, как если бы у твоего компа вдруг вырос второй мозг!

Этот второй мозг освободил CPU от самых ресурсоемких задач — геометрии и освещения. Но все тогда считали, что у Дженсена купол совсем поплыл, мол:

— «Нафига обычным юзерам такие дикие мощностя? Ведь проц и так справляется нормуль».

Все считали эта затея просто сожрёт все бабло и банкротнет компанию, так-же как это было с первым чипом NV1. Но уже через год все увидели, что эта приблуда действительно не хило разгружает CPU, и тем самым ускоряет работу всего компа. Это стало революционным прорывом для игр, и вообще для рынка 3D-графики, потому что игры перестали быть просто картинкой, они стали целыми мирами.

В итоге за 1999 год надербанили уже 374 миллиона. И пока конкуренты копошились, выпуская один чип, наши кремниевые шумахеры за это же время выпускали аж по ТРИ чипа! Конкуренты думали, что у Nvidia есть какая-то секретная магия, позволяющая выкатывать чипы так быстро. А секрет был в том, что Дженсен придумал уникальную концептуевину, в которой он покрошил команду на отделы, чтобы они работали параллельно, пока один отдел на скорую руку клипает лайт-версию чипа, другой уже делает топовую.

А в феврале 2001 года они выкатили модель GeForce 3 и опять с новой невероятной фичей — программируемыми шейдерами, которые позволяли разработчикам игр как-бы залесть во внутрянку чипа и диктовать ему, как рисовать картинку, чтобы создавать всякие кинематографичные эффекты.

Это сделало видюху просто БОМБОЙ. Если раньше все игры были какой-то пластиковой скукотой одинаковой. То теперь миры прям ожили и стали уже реалистичными. Например Max Payne 2 прям торкал всех по эмоциям, потому что там было динамическое освещение, блики на мокром асфальте, блеск металла и все такое.

Но эти же шейдеры активировали цепь просто невероятных последствий. Однажды какие-то сумасшедшие ученые из Стэнфорда взяли и взломали видеокарту GeForce 6 — как раз через эти шейдеры, как через лазейку, чтобы через GPU считать свёртывание белков.

Дженсен пронюхал об этом, и понял, что это может дать шанс запрыгнуть в какие-то новые перспективные области, чем просто тупо всю жизнь штамповать одни видюхи, что ничем хорошим точно не сулило, потому что по закону Мура ты в обяз в какой-то момент тупо упрешься в потолок.

Дженсену не охота было на вечно застрять на рынке игр и неизбежно потерять лидерство. И он начал переманивать подобных ученых на работу в Nvidia к секретному проекту под названием CUDA. Целью которого было перезаточить вычисления с видеоигр на науку.

И он пошел на немыслимое — не стал делать под это какую-то отдельную особую видеокарту, а впиндюрил CUDA прям сразу во все геймерские видюхи, чтобы технология стала доступной для всех, чтобы насытить ею весь рынок.

Но это, естественно, вызвало споры в Nvidia, ведь чипы двойного назначения взвинчивали себестоимость производства. Хотя геймеры даже не вкуривали, что они переплачивают, спонсируя ученых.

И вот в 2006-ом выкатили чип G80 уже с CUDA на борту. И с этого момента все перевернулось. Теперь ученым не надо было взламывать карты, а наоборот, они получили целую библиотеку уже готовых функций под разные сферы.

И случилось немыслимое — теперь даже простые бедные ученые могли выполнять исследования по физике, медицине и финансам, которые до этого могли выполнять только всякие элитные ученые с дорогущими суперкомпами.

А теперь даже студент мог взять и воткнуть в свой комп четыре игровые карты GeForce по 500 баксов и получить целую рабочую станцию, которая не уступала целому шкафу серверов. Это была революция!

Но инвесторы отнеслись к этой идее скептически. Ведь этот шаг оказался чрезвычайно дорогим. На создание G80 ушло целых 4 года и на это улетели какие-то просто конские деньги — почти полмиллиарда, на всякие исследования и разработки. Поэтому прибыль тогда падала на дно.

Аналитики и инвесторы с Уолл-Стрит считали, что Nvidia сбилась с пути, а технологию CUDA считали какой-то мутной шнягой, которая портит им малиновые отчеты.

Но Дженсен даже глазом не моргнул. Он, наоборот, начал на халяву раздавать эти видюхи всяким универам, чтобы на его железе проводили занятия по параллельным технологиям. А в интернет выкладывали лекции по GPU вычислениям.

Проводили всякие технологические саммиты. Сотрудники Nvidia коннектились с учеными из разных сфер, дружили и обменивались фидбэком. А потом внедряли в чипы то, что эти ученые просили.

Ученых буквально водили за ручку и тыкали носом, показывая, как использовать их технологии. Даже книгу выпустили в 2010 про CUDA и параллельные вычисления.

Дженсен даже на работу в Nvidia переманивал самых безбашенных ученых, которые потом открыто делились своими научными публикациями, что становилось своего рода рекламой, которая заманивала еще больше всяких других ученых.

Но все-же это была капля в море.

Не смотря на все усилия, интерес к CUDA почему-то не рос, а наоборот даже падал. Достигнув дна к 2012 году. И ситуевичка стала совсем ужасающей. Проблема оказалась до боли простой — у широкого рынка тупо не было никаких задач для CUDA. Дженсен пытался тащить суперкомпьютеры в массы, но массам это было не нужно. Инвесторы верещали, ведь Дженсен спускал целые состояния на малоизвестный уголок академических и научных вычислений.

Дошло до того, что дерзкий инвестор Джефф Смит из Старборд Вэлью хотел даже забуриться в совет директоров, чтобы кикнуть Дженсена из руководящей грядки и забанить все инвестиции в CUDA.

Джефф Смит

Джефф Смит

В 2012 он даже приперся прям в штаб-квартиру, и чтобы лично переубалтать Дженсена. Но Дженсен, как истинный фанат книги Дилемма Новатора, знал, что нужно в обяз закидывать удочку в новые сферы.

Он, наоборот, поставил на кон все и даже выкатил видеокарту NVIDIA Tesla K20, затраты на которую были астрономическими, но которая была никому не нужна, кроме горстки учёных в национальной лаборатории Ок-Ридж для их самого мощного суперкомпьютера в мире — Titan.

Дженсен из кожи вон лез, чтобы переубалтать инвесторов, но они все были настроены против него. Даже в совете директоров уже начали проявляться недовольства. Тенч Кокс считал, что они сбились с пути. А Даун Хадсон, считала, что Nvidia застойная компания с плохой репутацией.

На Дженсена смотрели как на конченного чудика мол: «Зачем усложнять и так хорошие чипы? Это же просто безумие! Зачем лезть в какие-то мутные научные всякие вычисления?»

Произошло ровно то, что и предсказывал Кристенсен — «инвесторы будут сопротивляться». Это был самый главный секрет «Дилеммы новатора», который все читатели почему-то упускали из виду. Книга была не про успех, а про то, как не сдохнуть.

Клейтон Кристенсен

Клейтон Кристенсен

Дженсен обожал эту книгу и только о ней и талдычил с инженерами с утра до вечера. Кстати. Я сделал выжимку этой книги — всю суть за 10 минут без воды. И выложил в телеге.

Не смотря на тотальное сопротивление, Дженсен нутром чуял что прорыв близится. Он чувствовал это по дикому энтузиазму в глазах своих сотрудников. Он чувствовал это настолько, что готов был рискнуть всем, поставить под удар основной продукт и обнулить весь выхлоп. Он чувствовал, что где-то, пока не понятно, где, но где-то уже точно есть какой-то безумный ученый, который вот уже скоро с помощью CUDA разожжёт настоящую революцию. И вот в 2012 это чудо реально вдруг случилось!

Какие-то сумасшедшие ученые, используя всего два чипа Nvidia GTX 580 выкатили на свет нейронку «AlexNet», которая могла супер точно определять то, что изображено на картинке.

Произошло именно то, о чем вещал Кристенсен в своей книге, что прорывные технологии часто вырастают в сообществах любителей, которые используют компоненты не по прямому назначению.

До этого нейронки всеми считались какой-то шляпой, а попытка создать ИИ выглядела как охота на снежного человека. Но теперь случился перелом, и все вкурили что для обучения нейросетей нужны нехилые вычислительные мощности, и что энвидивские видюхи подходят для этого просто идеально, ведь они обучают нейронки в сотни раз быстрее, чем обычные процессоры.

Когда Дженсен узнал об этих ученых и нейронках, он резко загорелся этим. И как сумасшедший начал изучать все об ИИ. Ведь он столько лет плыл, казалось, в никуда, и вдруг среди этой бесконечной пустоты, чудесным образом, вдруг появляется бесценное сокровище. Чем больше он залипал над изучением ИИ, тем больше его плющило от перевозбуждения. Он испытывал прозрение.

Ведь весь пазл, который до этого строился как-то сам по себе вслепую, вдруг хлоп и сложился воедино и перед Дженсеном предстала чудесная картина по захвату мира.

Ведь компьютерное зрение это-же только лишь одно направление в ИИ, таких направлений может открыться тысячи. Стало очевидно, что нейронки неизбежно произведут революцию в обществе. От этих мыслей дух захватывало.

А дальше события начали развиваться уже вообще стремительно. Библиотеку CUDA и все железо, естественно, перезаточили уже чисто под ИИ и нейронки в 2014.

Крупные компании дружно все поперли внедрять ИИ во все свои продукты. А инвесторы всех мастей и пород подорвались вкидываться во все стартапы хоть как-то связанные с ИИ. Всего за 5 лет инвестиции выросли с нуля до 5 ярдов к 2015-му. И все эти стартапы работали на Nvidia.

А в 2016 выкатили уже целый суперкомпьютер DGX-1 — самый мощный из когда-либо созданных Nvidia, заточенный чисто под глубокое обучение, по цене 129 000 долларов, с восемью GPU Tesla P100 внутри. Первым такой агрегат прикупил Илон Маск для OpenAI. Этот агрегат весил так много, что понадобилась тележка, чтобы его закатить в офис.

А уже в следующем году со всей щелей вдруг повылазили крипто-маньяки. И буквально вся планета вдруг ломанулась майнить на видюхах. Это превратилось в безумие.

А самый смак был в том, что как раз пакет CUDA идеально подходил под алгоритм майнинга и его скачали целых 2,7 миллиона раз в 2017-ом.

В итоге все склады с картами GeForce опустошили под чистую. Начали плодиться даже супермайнеры, которые целыми шкафами и стелажами размещали GeForce в своих спальнях и горожах. Это выглядело как сумасшествие, которое достигло пика в 2021-ом — когда цены на видюхи выросли аж в три раза. Геймеры, естественно, бушевали. Зато выручка Nvidia росла как на дрожжах.

А потом случился уже конкретный отвал бошки — OpenAI внезапно берет и выкатывает ChatGPT в 2022-ом. И всем людям снесло кукушку, потому что этот чат-бот общался как реальное разумное существо. Это было похоже на встречу с инопланетянином.

Люди удивлялись, смеялись и даже пугались. Все ахренели, что какая-то программулька может делать любую работу вместо человека: и экзамены сдавать, и статьи шлепать и рецепты писать. И число активных юзеров ChatGPT подскочило аж до 100 миллионов. Всего за два месяца!

И самое интересное то, что для обучения вех этих чат-ботов нужны были нереальные вычислительные мощностя. И опять все вдруг вспомнили что только чипы Nvidia идеально справляются с такой нагрузкой.

И все техно компании опять дружно выстроились в очередь чтобы получить заветные чипы. Спрос на них улетел в космос. И прибыль Nvidia оттопырилась до каких-то уже аномальных значений.

Капитализация в какой-то момент в 2025-м оттопырилась аж до 5 ТРИЛЛИОНОВ! Это абсолютный мировой рекорд!

Конкурентам такой рост кажется чудом каким-то, или даже пузырем, но на самом деле Дженсен все эти годы просто расчищал к этому поляну, пока все вату катали. Он не захватывал рынок, он его создал!

Он создал Ноев ковчег для ИИ. Конкуренты делают кремний не хуже, но ускорить сами вычисления они не в силах. А Nvidia добилась тысячекратного увеличения кэпэдэ, за счет математического инструментария для игр, анимации, климатологии, авто, планетологии, математики, физики, финансов, биохимии и тэдэ — сотни и сотни пакетов!

Дженсен называл эти пакеты своими сокровищами, они засасывают миллионы разрабов в экосистему Nvidia. Вот почему доходы и акции Nvidia растут как сумасшедшие. С ними просто невозможно конкурировать. Как только появляется какая-то новая область, Nvidia со своей толпой безумных ученых уже тут как тут — всегда на пару поколений впереди всех. И хлоп и там уже установлен их отраслевой стандарт. В итоге Nvidia превратилась в непобедимого ИИ-монстра.

И причина всему не в долбанной мотивации! Когда они позорно провалились в 1996-ом, они были на волосок от смерти. И именно СТРАХ стал их главной движущей силой.

С тех пор в Nvidia царит дух — «сейчас или никогда». Дженсен все время нагнетает атмосферу дедлайн-диктатуры, постоянной спешки, и паранойю по поводу конкуренции.

Надо двигаться так, что как будто ты всегда в жесточайшей опасности, всегда на измене, даже если бабла куры не клюют. А иначе ты тупо превратишься в самоуспокоенного тормозного булкапара, которого конкурентишки, естественно, сразу побреют.

А страх, наоборот, отрезвляет и сотрудники начинают пахать как невменяемые без задержек и простоев.

Когда инженеры из банкротнувшейся 3dfx перешли на работу в Nvidia в 2001 — они были шоке, потому что в программном коде творился какой-то лютый хаос. Все небрежно и беспорядочно. И всем на это было насрать. Такой код было все тяжелее и тяжелее сопровождать, но в этом был свой вайб Nvidia — где надо максимально быстро повторять и повторять, просто тупо быстро выполнять и выполнять — чтобы не сдохнуть! Этот корявый код был как боевой шрам выжившего. Ведь кому нужна эта красота, если эта красота трупа.

Чувствую вас уже прям тянет в коментах повосхвалять Дженсена. Но Дженсен считает, что похвала вредна, так как она отвлекает, нужна наоборот взбучка.

— «Каждое утро я смотрю в зеркало и говорю — ты отстой». Сказанул однажды Дженсен на совещании.

Нельзя гордиться прошлым, надо самосовершенствоваться и фокусироваться на будущем.

Дженсен говорит, что работа для него — это отдых. Он пашет каждый день на максималках, и даже в отпусках. И даже не помнит фильмы, которые глядит на выходных, потому что даже в это время его думалка вся в работе. Для него работа это не груз, а кайф. Он не любит тех, кто лентяйничает. Он постоянно качает новые скиллы.

Он может внезапно заскочить в любой отдел и погрузиться в мельчайшие детали, и заставить переделать упаковку чипа, если ему вдруг не понравился шрифт. И когда его называют перфекционистом в надежде сделать укор, он наоборот радуется, ведь так и должно быть! Ведь если ты хочешь сделать что-то великое, это не должно быть легко!

Еще больше историй других компаний в такой же подаче в моем тэгэ-канале

Эта лишь очень краткая версия истории, на сайте в три раза длиннее история Nvidia.

История на YouTube

Показать полностью 25
[моё] История компании Nvidia Geforce Видеокарта Искусственный интеллект Длиннопост
543
2109
LYIFER
LYIFER

Подарок от любимой жены⁠⁠1

14 дней назад
Подарок от любимой жены
[моё] Жена Подарки Видеокарта Делюсь радостью Geforce Фотография
955
top.roma
top.roma
Про железо

Лучшие видеокарты для игр 2025/2026 [NVidia, Intel, GeForce, AMD, Radeon]⁠⁠

2 месяца назад
Какая видеокарта лучше для игр? Давайте разберёмся в этой статье.

Какая видеокарта лучше для игр? Давайте разберёмся в этой статье.

Начнём с конца: Прогноз на 2026 год

Ожидаемые новинки и анонсы

В первой половине 2026 года ожидается анонс NVIDIA GeForce RTX 60-й серии на архитектуре Blackwell следующего поколения с дальнейшими улучшениями энергоэффективности и производительности трассировки лучей. AMD планирует представить видеокарты на архитектуре RDNA 5, которая, по слухам, сосредоточится на значительном улучшении производительности в растеризации, где RDNA 4 не показала прироста относительно RDNA 3.

Intel продолжит развитие линейки Arc с картами поколения Battlemage+ и Celestial, нацеленными на захват большей доли рынка в среднем и бюджетном сегментах благодаря агрессивному ценообразованию. Ожидается расширение поддержки технологий XeSS 2.0 с улучшенным качеством изображения и производительностью.

Тренды развития рынка

Основным трендом 2026 года станет дальнейшее увеличение объемов видеопамяти - даже карты среднего сегмента получат минимум 16 ГБ VRAM, что связано с растущими требованиями современных игр и текстур высокого разрешения. Память GDDR7 станет стандартом для всех новых видеокарт, включая бюджетные модели, обеспечивая значительный прирост пропускной способности.

Трассировка лучей превратится из опциональной функции в обязательную для комфортного гейминга - большинство AAA-игр 2026 года будут разрабатываться с учетом рейтрейсинга как базовой технологии освещения. Технологии апскейлинга следующего поколения - DLSS 5, FSR 5 и XeSS 2 - станут еще более качественными, практически устраняя визуальную разницу с нативным рендерингом.

Ценовая динамика

Рынок видеокарт продолжит сегментацию по ценовым категориям: бюджетный сегмент (до 40 тысяч рублей) получит карты с производительностью текущих RTX 4060 Ti и RX 7700 XT. Средний сегмент (40-80 тысяч) предложит решения для комфортного 4K-гейминга с трассировкой лучей. Премиальный сегмент (от 80 тысяч) будет ориентирован на энтузиастов, креаторов контента и профессионалов, работающих с AI.

Дефицит видеокарт, вызванный высоким спросом на AI-ускорители, может сохраниться в первой половине 2026 года, особенно для топовых моделей NVIDIA. Рекомендуется не откладывать покупку, если текущие цены находятся на приемлемом уровне, так как дефицит может привести к повышению стоимости.

Рекомендации по времени покупки

Оптимальное время для покупки видеокарты - конец 2025 - начало 2026 года, когда текущее поколение карт (RTX 50-й серии и RX 9000-й серии) получит более широкую доступность и стабилизацию цен. Для тех, кто не нуждается в абсолютной топовой производительности, карты предыдущего поколения (RTX 4090, RTX 4080 Super, RX 7900 XTX) предложат отличное соотношение цены и качества после выхода новых моделей.

Не рекомендуется ждать анонсов 2026 года, если текущая видеокарта не справляется с задачами - разница в производительности между поколениями сокращается, а технологии апскейлинга позволяют продлить жизнь текущим картам. Для бюджетных покупателей лучшее время - распродажи в конце года, когда производители освобождают склады от моделей предыдущего поколения.

А что сейчас?

Рынок графических процессоров 2025/2026 представляет уникальную ситуацию для игроков: от лучших бюджетных видеокарт для игр стоимостью менее 40 000 рублей до флагманских решений, обеспечивающих игры в 4K с максимальными настройками. Правильный выбор видеокарты становится ключевым фактором для получения оптимального игрового опыта, независимо от располагаемого бюджета.

Современный рынок четко разделен между тремя основными производителями: NVIDIA GeForce остается лучшей видеокартой для игр в премиальном сегменте, AMD Radeon предлагает превосходное соотношение цены и производительности, а Intel Arc B580 неожиданно завоевала звание лучшего бюджетного решения. Лучшая видеокарта RTX для игр в 2025 году - RTX 5090, которая опережает ближайшего конкурента на 9-14% в производительности.

В бюджетном сегменте выделяются несколько ключевых моделей: лучшая видеокарта 4060 для игр обеспечивает стабильную производительность в Full HD, а лучшие игры для видеокарты 3050 включают все современные проекты при средних настройках графики. Среди лучших AMD видеокарт для игр лидирует RX 9070, предлагающая конкурентное соотношение цены и качества. Radeon лучшая видеокарта для игр в своем сегменте - RX 9070 XT с архитектурой RDNA 4 и 16 ГБ памяти.

Даже встроенные видеокарты лучше для игр, чем раньше: современные решения AMD серии 700M/800M и Intel Arc Graphics способны обеспечить комфортную игру в легких проектах. Ключевые технологии 2025 года - DLSS 4 с генерацией кадров от NVIDIA, FSR 4 от AMD и трассировка лучей в реальном времени - кардинально изменили требования к видеопамяти и вычислительной мощности.

Как выбрать видеокарту для игр

Выбор видеокарты начинается с определения разрешения монитора и типа игр: для Full HD достаточно 8 ГБ видеопамяти, для 1440p рекомендуется 12-16 ГБ, а для 4K необходимо минимум 16 ГБ. Недостаток VRAM становится частой причиной резких просадок производительности, когда система начинает сбрасывать данные в оперативную память компьютера.

Ключевые характеристики

Объем видеопамяти остается критичным параметром в 2025 году: 8 ГБ уже тесновато на новых AAA-играх с ультра-настройками, 12-16 ГБ обеспечивают запас на будущее для 1440p, а для 4K-текстур оптимально 20-24 ГБ. Разрядность шины памяти указывает на количество бит, передаваемых между графическим чипом и видеопамятью - чем шире канал, тем выше пропускная способность.

Технологии масштабирования

Технологии апскейлинга NVIDIA DLSS 4 и AMD FSR 4 помогают повысить FPS без ущерба качеству, особенно при включенной трассировке лучей. Поддержка этих технологий является обязательным условием для комфортного гейминга в 1440p и 4K в новых играх 2025 года. Обращайте внимание на показатели 1% и 0.1% Low FPS - эти метрики демонстрируют минимальные значения частоты кадров и важнее среднего FPS для плавного геймплея без рывков.

Физические параметры

Современные видеокарты достигают внушительных размеров, поэтому необходимо проверить соответствие габаритов корпусу и материнской плате. Производительные карты требуют качественного блока питания мощностью от 550 Вт или выше, а также эффективного охлаждения. После покупки топовой видеокарты может потребоваться обновление не только блока питания, но и корпуса.

Стабильность драйверов

NVIDIA остается самым безопасным выбором для пользователей, не желающих заниматься тонкой настройкой - видеокарты компании совместимы практически со всеми играми и профессиональным ПО. AMD и Intel требуют больше внимания и имеют специфические особенности в некоторых приложениях, но предлагают более привлекательное соотношение цены и производительности для энтузиастов и ограниченных бюджетов.

Лучшие бюджетные видеокарты для игр

Бюджетный сегмент видеокарт в 2025 году предлагает отличные решения для Full HD гейминга в диапазоне 20-40 тысяч рублей. Intel Arc B580 стала настоящей сенсацией, предлагая 12 ГБ видеопамяти и производительность, сравнимую с RTX 4060, по более доступной цене. Эта видеокарта отлично справляется с современными играми в Full HD на средних и высоких настройках, обеспечивая стабильные 60+ FPS.

AMD Radeon RX 7600 остается популярным выбором для бюджетных сборок благодаря сбалансированным характеристикам и поддержке FSR 3. Видеокарта оснащена 8 ГБ GDDR6 памяти и демонстрирует уверенную производительность в разрешении 1080p. AMD Radeon RX 7600 XT с 16 ГБ видеопамяти представляет собой улучшенную версию, обеспечивающую запас на будущее для более требовательных проектов.

GeForce RTX 4060 является базовым решением от NVIDIA в бюджетном классе, предлагая 8 ГБ GDDR6 и поддержку DLSS 3. Лучшая видеокарта 4060 для игр среди моделей разных производителей - версии с улучшенным охлаждением от ASUS, MSI и Gigabyte, которые обеспечивают более низкие температуры и тихую работу. RTX 4060 Ti с 16 ГБ памяти подходит для игроков, планирующих использовать ультра-текстуры в новых играх.

NVIDIA GeForce RTX 3050 продолжает оставаться актуальной для тех, кто ищет максимально доступное решение с поддержкой трассировки лучей. Лучшие игры для видеокарты 3050 включают киберспортивные дисциплины (CS2, Valorant, Dota 2), популярные онлайн-проекты и AAA-игры 2022-2023 годов на средних настройках. В современных тяжелых проектах карта требует снижения графики, но обеспечивает комфортные 45-60 FPS.

AMD Radeon RX 6600 представляет собой проверенное решение предыдущего поколения с отличным соотношением цены и производительности для 1080p. Видеокарта потребляет всего 132 Вт, что делает её идеальным выбором для компактных систем с ограниченным блоком питания.

GeForce: лучшие видеокарты для игр

Лучшая видеокарта RTX для игр

NVIDIA GeForce RTX 5090 занимает позицию абсолютного лидера среди игровых видеокарт 2025 года, опережая ближайшего конкурента RTX 4090 на 9-14% в производительности. Видеокарта оснащена 32 ГБ памяти GDDR7 на 512-битной шине и демонстрирует впечатляющие 235 FPS в Full HD, 201 FPS в 1440p и 155 FPS в 4K при максимальных настройках. Благодаря 21 760 CUDA-ядрам и 170 RT-ядрам, RTX 5090 обеспечивает безупречный гейминг в ультравысоких разрешениях с включенной трассировкой лучей.

GeForce RTX 5080 представляет собой более доступную альтернативу флагману с приростом производительности на 20-26% относительно RTX 4080 Super. Видеокарта выдает 204 FPS в Full HD, 157 FPS в 1440p и 107 FPS в 4K, что делает её оптимальным выбором для энтузиастов, не нуждающихся в абсолютном максимуме. Оснащенная 16 ГБ памяти GDDR7, RTX 5080 справляется с любыми современными играми на ультра-настройках.

RTX 5070 Ti предназначена для игроков, нацеленных на комфортный гейминг в разрешениях 1440p и 4K без переплаты за флагманские решения. Поддержка DLSS 4 с технологией Multi Frame Generation позволяет увеличить частоту кадров примерно на 56% в требовательных проектах, фактически утраивая производительность в некоторых сценариях.

Средний сегмент NVIDIA

RTX 4070 Ti Super остается одной из самых сбалансированных карт в линейке GeForce, предлагая отличное соотношение цены и производительности для гейминга в 1440p и 4K. Видеокарта обеспечивает стабильные 60+ FPS в ультра-настройках практически во всех современных играх без необходимости активации технологий апскейлинга. RTX 4070 Super представляет универсальное решение для Quad HD, гарантируя высокие значения FPS в разрешении 1440p при включенных максимальных настройках графики.

GeForce RTX 4070 подходит для игроков, которым нужна производительная карта для 1440p без излишеств топовых моделей. Благодаря архитектуре Ada Lovelace и поддержке DLSS 3, видеокарта эффективно справляется с трассировкой лучей и обеспечивает плавный геймплей в большинстве современных проектов.

Лучшие AMD видеокарты для игр

Radeon: лучшие видеокарты для игр

AMD Radeon RX 9070 XT представляет собой флагман линейки RDNA 4, основанный на 16 ГБ памяти GDDR6 и поддерживающий улучшенную трассировку лучей Mantle Raytracing. Видеокарта демонстрирует производительность на уровне 66% от RTX 5090 в рейтрейсинге, что является впечатляющим результатом с учетом значительной разницы в цене. В играх RX 9070 XT обеспечивает на 9-12% большую производительность относительно базовой модели RX 9070 и отличается высокой энергоэффективностью.

AMD Radeon RX 9070 стала настоящим хитом 2025 года благодаря выдающемуся соотношению цены и производительности. Видеокарта достигает 81 FPS в 4K и 165 FPS в 1440p, часто опережая RTX 5070 на 10-16% в растровых играх при более доступной цене. RX 9070 показывает прирост на 21% в 4K и 20% в 1440p по сравнению с предыдущей RX 7900 GRE, что делает её идеальным выбором для геймеров с ограниченным бюджетом.

AMD Radeon RX 7900 XTX остается мощным решением предыдущего поколения, предлагая топовую производительность в экосистеме AMD. Видеокарта оснащена 24 ГБ памяти GDDR6 на 384-битной шине и демонстрирует превосходные результаты в разрешении 4K. По данным тестов, RX 7900 XTX обеспечивает 84,7 FPS в среднем в 4K-играх.

Средний сегмент AMD

AMD Radeon RX 7800 XT предлагает отличную производительность среднего класса для гейминга в 1440p с оптимальным балансом цены и качества. Видеокарта с 16 ГБ памяти справляется с большинством современных игр на высоких настройках, обеспечивая стабильные 60+ FPS в Quad HD. RX 7700 XT представляет более доступную альтернативу для игроков, не нуждающихся в максимальной производительности, но желающих комфортный гейминг в 1440p.

AMD Radeon RX 7600 XT с 16 ГБ видеопамяти показывает впечатляющие результаты для своего ценового сегмента, предоставляя запас на будущее для более требовательных текстур. Видеокарта эффективно справляется с играми в Full HD и может работать в 1440p на средне-высоких настройках.

Лучшие видеокарты для разных разрешений

Full HD (1080p)

Для комфортного гейминга в разрешении 1920×1080 достаточно видеокарт начального и среднего уровня с 8-12 ГБ видеопамяти. RTX 4060 и RTX 4060 Ti обеспечивают стабильные 60-100 FPS в большинстве современных AAA-игр на высоких и ультра-настройках. Intel Arc B580 с 12 ГБ памяти демонстрирует отличное соотношение цены и производительности, справляясь с требовательными проектами на высоких настройках.

AMD Radeon RX 7600 и RX 7600 XT представляют собой оптимальные решения для Full HD с поддержкой FSR 3, которая значительно повышает частоту кадров в требовательных играх. Лучшие игры для видеокарты 3050 включают все киберспортивные дисциплины (CS2, Valorant, Dota 2, League of Legends), онлайн-проекты средней требовательности (Fortnite, Apex Legends, Warzone) и AAA-игры 2022-2023 годов на средних настройках. В современных тяжелых проектах RTX 3050 требует снижения графики до средних или низких параметров, но сохраняет играбельные 45-60 FPS.

Quad HD (1440p)

Разрешение 2560×1440 требует более производительных решений с минимум 12 ГБ видеопамяти для комфортной игры на ультра-настройках. RTX 4070, RTX 4070 Super и RTX 5070 являются оптимальными картами для этого разрешения, обеспечивая стабильные 60+ FPS в любых современных играх. AMD Radeon RX 9070 достигает впечатляющих 165 FPS в 1440p, часто опережая RTX 5070 в растровых играх.

RTX 4070 Ti и RX 7800 XT предлагают запас производительности для будущих проектов и позволяют активировать трассировку лучей без критичных потерь в FPS. RX 9070 XT демонстрирует прирост на 38% в 1440p по сравнению с RX 7900 GRE и показывает производительность, близкую к RTX 5070 Ti. Для максимальных настроек с трассировкой лучей рекомендуется использовать технологии апскейлинга DLSS или FSR.

Ultra HD (4K)

Гейминг в разрешении 3840×2160 требует топовых видеокарт с минимум 16 ГБ памяти, а оптимально 20-24 ГБ для текстур высокого разрешения. RTX 5090 демонстрирует 155 FPS в 4K при максимальных настройках, обеспечивая абсолютный комфорт в любых сценариях. RTX 5080 выдает 107 FPS в 4K, что достаточно для плавного геймплея в большинстве проектов.

RTX 4080 Super, RTX 4080 и RTX 4070 Ti Super остаются актуальными решениями для 4K, предлагая хорошую производительность при меньшей стоимости по сравнению с новейшими картами. AMD Radeon RX 9070 достигает 81 FPS в 4K, что делает её отличным выбором для бюджетного 4K-гейминга. RX 9070 XT уступает RTX 5070 Ti всего на 2% в 4K на ультра-настройках по данным AMD, при этом имея преимущество в 16 ГБ видеопамяти против 12 ГБ.

Технологии DLSS 4 и FSR 4 с генерацией кадров способны утроить среднюю частоту кадров в 4K, делая комфортный гейминг доступным даже на картах среднего сегмента. RX 7900 XTX с 24 ГБ памяти обеспечивает в среднем 84,7 FPS в 4K и остается мощным выбором для энтузиастов экосистемы AMD.

Какие встроенные видеокарты лучше для игр

Встроенные графические решения 2025 года достигли уровня производительности, позволяющего комфортно играть в киберспортивные дисциплины и менее требовательные проекты без необходимости покупки дискретной видеокарты. AMD Radeon Graphics серии 700M и 800M, основанные на архитектуре RDNA 3, представляют собой наиболее производительные интегрированные решения на рынке.

AMD интегрированная графика

AMD Radeon 780M и Radeon 880M демонстрируют производительность, сопоставимую с дискретными видеокартами начального уровня предыдущих поколений. Эти чипы способны обеспечивать 45-60 FPS в популярных онлайн-играх типа CS2, Valorant, Dota 2 и League of Legends при разрешении 1080p на средних настройках. В менее требовательных AAA-проектах 2022-2023 годов интегрированная графика AMD справляется с низкими настройками, обеспечивая играбельные 30-45 FPS.

Radeon 890M в процессорах AMD Ryzen серии 8000 и 9000 предлагает до 12 вычислительных блоков RDNA 3 с частотой до 2,9 ГГц, что обеспечивает достаточную мощность для легкого гейминга и работы с мультимедиа. Поддержка FSR 3 значительно повышает производительность в совместимых играх, делая интегрированную графику AMD жизнеспособным вариантом для бюджетных игровых ноутбуков.

Intel интегрированная графика

Intel Iris Xe Graphics в процессорах 12-го и 13-го поколения обеспечивает базовую игровую производительность для киберспортивных дисциплин и старых AAA-игр на низких настройках. Intel Arc Graphics в процессорах Meteor Lake (Core Ultra) демонстрирует улучшенную производительность благодаря архитектуре Xe-LPG с поддержкой аппаратного ускорения трассировки лучей.

Arc Graphics справляется с играми в 1080p на низких-средних настройках, достигая 35-50 FPS в менее требовательных проектах. Поддержка технологии XeSS (Intel's версия DLSS) помогает повысить частоту кадров в совместимых играх без существенных потерь визуального качества.

Рекомендации по играм

Лучшими жанрами для встроенных видеокарт являются киберспортивные шутеры (CS2, Valorant, Overwatch 2), MOBA-игры (Dota 2, League of Legends), стратегии (Age of Empires IV, Civilization VI) и инди-проекты (Hades, Hollow Knight, Celeste). В современных AAA-играх 2024-2025 годов встроенная графика требует снижения разрешения до 720p и использования низких настроек для достижения минимально играбельных 25-30 FPS.

Интегрированные решения лучше всего подходят для казуальных игроков, студентов и тех, кто не планирует играть в последние AAA-проекты на высоких настройках. Для серьезного гейминга в современные требовательные игры рекомендуется приобретение дискретной видеокарты минимум уровня RTX 3050 или RX 6600.

NVIDIA vs AMD vs Intel: сравнение

Производительность и технологии

NVIDIA GeForce RTX 5090 опережает AMD Radeon RX 9070 XT на 51% в производительности и на 66% в играх с трассировкой лучей. RTX 5090 демонстрирует 201 FPS в 1440p против 136 FPS у RX 9070 XT, а в 4K разрыв составляет 155 FPS против 103 FPS. Однако разница в цене пропорциональна - RTX 5090 стоит примерно в 2,5-3 раза дороже решения от AMD.

NVIDIA DLSS 4 с технологией Multi Frame Generation увеличивает частоту кадров примерно на 56%, фактически утраивая производительность в некоторых играх. AMD FSR 4 также способна утроить среднюю частоту кадров, предлагая открытое кроссплатформенное решение, доступное на всех видеокартах. Intel XeSS представляет третью альтернативу апскейлинга, показывая конкурентные результаты на видеокартах Arc.

Трассировка лучей

В играх с активной трассировкой лучей карты NVIDIA сохраняют значительное преимущество благодаря выделенным RT-ядрам третьего и четвертого поколений. RTX 5090 с 170 RT-ядрами обеспечивает на 66% лучшую производительность в рейтрейсинге по сравнению с RX 9070 XT. AMD значительно улучшила производительность трассировки лучей в архитектуре RDNA 4, но разрыв с NVIDIA остается существенным.

Драйверная поддержка

NVIDIA остается самым безопасным выбором с точки зрения стабильности драйверов и совместимости с играми - видеокарты компании работают практически во всех проектах без дополнительных настроек. AMD требует больше внимания к обновлениям драйверов и может иметь специфические проблемы в некоторых играх, особенно при запуске новых AAA-проектов. Intel Arc продолжает улучшать драйверную поддержку, но все еще встречаются случаи нестабильности в старых играх.

Энергоэффективность

AMD Radeon RX 9070 демонстрирует впечатляющую энергоэффективность, потребляя значительно меньше энергии при сопоставимой производительности с конкурентами NVIDIA. RX 6600 потребляет всего 132 Вт, что делает её идеальным выбором для компактных систем. RTX 5090 требует мощного блока питания минимум 850 Вт и эффективной системы охлаждения из-за высокого энергопотребления.

Соотношение цены и производительности

AMD предлагает лучшее соотношение цены и производительности в сегментах от бюджетного до среднего - RX 9070 часто опережает RTX 5070 на 10-16% при меньшей стоимости. Intel Arc B580 завоевала титул лучшей бюджетной видеокарты 2025 года, предлагая 12 ГБ памяти и производительность уровня RTX 4060 по доступной цене. NVIDIA доминирует в премиальном сегменте, где абсолютная производительность важнее цены.

Специальные сценарии использования

Видеокарты для стриминга и создания контента

RTX 5090 демонстрирует революционные улучшения в задачах создания контента благодаря трем энкодерам и двум декодерам против двух энкодеров и одного декодера у RTX 4090. В DaVinci Resolve новинка превосходит предшественника на 46-56% в стандартных показателях, а производительность воспроизведения H.264 и H.265 улучшилась на колоссальные 126%. Медиа-движки способны декодировать до девяти потоков 4K 60fps видео одновременно, что критически важно для многокамерного монтажа.

RTX 4090 остается отличным выбором для стримеров и креаторов благодаря 24 ГБ VRAM и двум NVENC-энкодерам, обеспечивающим высокое качество стримов без потери игровой производительности. AMD Radeon RX 7900 XTX с 24 ГБ памяти предлагает альтернативу для работы с видеоредакторами, поддерживающими AMD Media Engine.

RTX 4070 Ti Super и RTX 4080 представляют более доступные решения для стримеров, обеспечивая достаточную мощность для одновременной игры и стриминга в высоком качестве. Intel Arc видеокарты оснащены улучшенными медиа-движками с аппаратным ускорением AV1, что делает их привлекательными для бюджетных креаторских систем.

Профессиональное применение игровых карт

RTX 5090 демонстрирует впечатляющий прирост в 3D-рендеринге: в Blender Monster сцене она набирает 7,311 очков против 5,950 у RTX 4090 - улучшение на 23%. В V-Ray бенчмарках прирост достигает 36-37% как в CUDA, так и в RTX оценках. Дополнительные 8 ГБ видеопамяти (32 ГБ против 24 ГБ) особенно ценны для 3D-художников, работающих со сложными сценами и текстурами высокого разрешения.

Производительность Unreal Engine 5 улучшилась на 29% по сравнению с RTX 4090 при работе со сложными сценами, что делает RTX 5090 отличным выбором для разработчиков игр и архитектурной визуализации. AMD Radeon RX 7900 XTX с 384-битной шиной и 24 ГБ памяти эффективно справляется с задачами рендеринга в Blender и других приложениях с открытым исходным кодом.

Искусственный интеллект и машинное обучение

RTX 5090 демонстрирует трансформирующий прирост в AI-задачах благодаря тензорным ядрам 5-го поколения: в точности FP4 она обеспечивает более 3,300 TOPS против 1,300 TOPS у RTX 4090 - улучшение на 154%. Комбинация увеличенной производительности тензорных ядер и массивного прироста пропускной способности памяти (1,792 ГБ/с против 1,008 ГБ/с) обеспечивает значительно более быстрое обучение и вывод для моделей AI.

Эти характеристики делают RTX 5090 исключительно привлекательным выбором для исследователей, разработчиков и энтузиастов, работающих с генеративным AI, локальными языковыми моделями и другими AI-приложениями. RTX 4090 с 24 ГБ памяти остается жизнеспособным вариантом для работы с меньшими моделями при значительной экономии бюджета.

Показать полностью
Компьютерное железо Рейтинг Игровой ПК Сборка компьютера Видеокарта Geforce Nvidia RTX Компьютерная помощь Компьютер Nvidia Геймеры Игры Длиннопост
2
8
InfoJam
InfoJam
pikabu GAMES

Windows 10 и старые GeForce уходят вместе⁠⁠

4 месяца назад
Windows 10 и старые GeForce уходят вместе

Nvidia объявила о глобальных изменениях в поддержке драйверов:

📌 Что известно

  • Поддержка драйверов для Windows 10 завершится в октябре 2026 года.

  • Уже с осени 2025-го без игровых обновлений останутся:
    • GeForce GTX 10‑я серия (1060, 1070, 1080 и др.)
    • GeForce GTX 9‑я серия (960, 970, 980)
    • GeForce GTX 7‑я серия (750 Ti, 760, 780 и т.д.)

Это значит, что новые игры перестанут оптимизировать под эти карты, а патчи безопасности будут выходить реже.

🕹 Почему это важно

GTX 1060 долгое время считалась самой популярной видеокартой в мире — она держалась на первом месте по количеству пользователей в Steam больше 5 лет. Теперь она окончательно уходит в историю.

⚡️ Для Windows 10 это тоже финальный аккорд — после октября 2026-го Microsoft полностью прекратит выпуск обновлений. Пользователей будут настойчиво переводить на Windows 11 и 12.

📉 Что это значит для геймеров

  • Новые тайтлы (особенно ААА) начнут хуже работать или вовсе не запускаться на старых GTX.

  • Возможны проблемы с совместимостью и падение FPS.

  • Игры будут оптимизироваться в первую очередь под RTX и Windows 11/12.

💡 Что можно сделать

  • Если у тебя GTX 1060/970/750 Ti — она ещё проживёт какое-то время на уже существующих драйверах.

  • Но для новых проектов придётся задуматься о переходе хотя бы на RTX 20‑ю серию и выше.

  • Windows 10 пока можно использовать, но к 2026-му всё равно придётся мигрировать.


💬 Лично мне грустно: GTX 1060 реально была рабочей лошадкой, которая тянула кучу игр на средних и высоких настройках. Но эра меняется.

👉 А вы до сих пор сидите на GTX или уже пересели на RTX?


📲 Подобные новости про технологии, игры и мемы я часто разбираю у себя в ТГ-канале InfoJAM. Подписывайтесь, чтобы быть в теме 😉

Показать полностью
[моё] Windows 10 Windows Geforce Nvidia Компьютер Игры Технологии Железо Компьютерное железо Microsoft Игровой ПК
15
user10823786

Какой AMD проц всё -таки лучше брать под 5070ti?⁠⁠

5 месяцев назад
[моё] Дебаты Компьютер AMD Geforce
12
3
CyberDump
CyberDump
IT-юмор

Временные промежутки одни и те же⁠⁠

6 месяцев назад
Временные промежутки одни и те же

Про железо и игры

Видеокарта Geforce Nvidia RTX Telegram (ссылка) Компьютерное железо Ссылка Скриншот Зашакалено
50
2
CRNET
Лига Геймеров

Нашел графонистую игру с самым ровным фпс⁠⁠

8 месяцев назад

Я обычно играю в синглы с локом на 60 FPS и включённой вертикалкой. Иногда ставлю 120 FPS, если игра нормально оптимизирована и железо тянет без напряга. Терпеть не могу разрывы кадра и микрофризы — пусть лучше будет стабильных 60, чем 1000, но с дерганием и болтанкой.Причём ровность фреймтайма не всегда зависит от мощности системы. Даже если ПК сильно превышает системные требования, это не гарантирует плавность. Играл во много старых и новых игр с куда проще графикой, и ни одна из них не выдавала настолько стабильный фреймтайм, как сингловая кампания в Battlefield 4. Исключение — совсем древние штуки вроде ремастеров Quake или олдскульных римейков 90-х.Даже условный Doom 3 или Half-Life 2 при 500+ FPS и включённой вертикалке на 60 всё равно дают зубастую фреймтайм-линию. Вроде плавно, но не идеально. А вот в батле 4 линия почти эталонная — ровная как по линеечке, кадры идут стабильно, разве что раз в 5–10 минут вылезает маленькая зазубрина, и то это ничто по сравнению с большинством других игр. Короче, респект разработчикам батлы 4. Графике уже больше десяти лет, но выглядит она до сих пор достойно, а главное — радует стабильностью и качественной синхронизацией. Хотелось бы видеть побольше таких игр. Может, знаете ещё какие-то тайтлы с таким же ровным фреймтаймом? Особенно интересно мнение тех, кто тоже играет с локом FPS и вертикалкой, следя за линией фреймтайма, как я.

Показать полностью 1
Компьютерная графика Battlefield 4 Geforce FPS Benchmark Видео YouTube
9
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии