История нейросетей
История нейросетей началась с идеи--попытки описать работу человеческого мозга языком математики. Это было в середине 20-го века, когда нейрофизиологи, математики и кибернетики начали работать вместе. Главными героями того времени стали Уоррен Мак-Каллок и Уолтер Питтс. В 1943 году они опубликовали статью, в которой предложили первую математическую модель искусственного нейрона. Эта модель, известная как нейрон Мак-Каллока-Питтса, была очень простой. Она работала по принципу "всё или ничего": принимала на вход сигналы в виде нулей и единиц, и если их сумма превышала определённый порог, нейрон "срабатывал" и выдавал единицу. Если нет--оставался пассивным и выдавал ноль. Но самое гениальное было в том, что они доказали: из таких простых "переключателей", соединённых в сеть, можно собрать машину, способную выполнить любую логическую операцию. По сути, они показали, что нейронная сеть теоретически не уступает по возможностям машине Тьюринга, дав биологическое обоснование самой идее вычислений. Они создали целую концепцию, где интеллект--это результат работы сложной сети взаимосвязанных вычислительных элементов.
Если Мак-Каллок и Питтс создали "скелет", то Дональд Хебб вдохнул в него жизнь, предложив концепцию обучения. В своей книге 1949 года он сформулировал знаменитый принцип, который часто описывают фразой "нейроны, которые активируются вместе, связываются вместе". Идея была в том, что связь между двумя нейронами усиливается, если они срабатывают одновременно. Это было первое научное объяснение того, как мозг может учиться и запоминать что-то, просто адаптируясь к поступающей информации. Этот принцип стал основой для многих будущих алгоритмов обучения, где веса соединений между нейронами--это не что-то застывшее, а переменные, которые меняются с опытом.
В 50-е годы эти идеи начали потихоньку воплощаться в железе. В 1951 году Марвин Минский и Дин Эдмондс построили SNARC--первую физическую нейросетевую машину. Этот "шкаф" из 3000 вакуумных ламп мог научиться находить выход из лабиринта. Но настоящую шумиху поднял Фрэнк Розенблатт, который в 1957 году представил "Перцептрон". Это была однослойная нейросеть для классификации, которая, в отличие от предыдущих моделей, могла по-настоящему учиться на данных, подстраивая свои веса. Розенблатт даже создал физическую версию, Mark I Perceptron, и делал громкие заявления, что его машина однажды сможет обрести сознание. Это вызвало огромный интерес и волну оптимизма. Примерно в то же время Бернард Уидроу и Тед Хофф разработали системы ADALINE и MADALINE. Они были более приземлёнными и решали конкретные задачи--например, успешно использовались для подавления эха на телефонных линиях. Это стало одним из первых коммерческих применений нейросетей и показало их реальный потенциал. К концу 50-х нейросети прошли путь от абстрактной теории до работающих устройств, заложив основу как для будущих прорывов, так и для грядущего разочарования.
Этот первоначальный оптимизм был заразителен, но, как оказалось, построен на довольно хрупком фундаменте. Период с конца 50-х до 80-х годов стал для нейросетей американскими горками: от эйфории до глубокого кризиса, известного как первая "зима искусственного интеллекта". Общественность и правительства, вдохновлённые Перцептроном Розенблатта, ждали появления разумных машин чуть ли не завтра. Финансирование лилось рекой, исследователи были полны энтузиазма.
А потом, в 1969 году, Марвин Минский и Сеймур Паперт опубликовали книгу "Перцептроны", которая стала для этой области холодным душем. Они математически доказали, что однослойный перцептрон, на который все возлагали такие надежды, имеет фундаментальные ограничения. Он просто не мог решить задачи, которые не являются "линейно разделимыми". Самый известный пример--логическая операция XOR ("исключающее ИЛИ"). Представьте, что вам нужно провести одну прямую линию на листе бумаги, чтобы отделить точки одного класса от другого. Для XOR это невозможно. Минский и Паперт убедительно показали, что для таких задач нужны многослойные сети, но как их эффективно обучать, тогда никто не знал. Их критика, исходящая от авторитетных учёных из MIT, оказалась убийственной. У фондов и исследователей пропал энтузиазм, и финансирование начало иссякать.
Причины "зимы ИИ" были не только в одной книге. В 1973 году в Великобритании вышел отчёт Лайтхилла, который раскритиковал всю область ИИ за невыполненные обещания. В США приняли поправку Мэнсфилда, которая требовала от военных агентств, вроде DARPA, финансировать только прикладные, а не фундаментальные исследования. К тому же, компьютеры того времени были слишком слабыми для обучения сложных моделей, а данных было мало. В это же время набирал популярность символьный подход к ИИ--системы, основанные на строгих правилах и логике. Они казались более понятными и надёжными, чем нейросети, которые работали как "чёрные ящики". В итоге исследования нейросетей на целое десятилетие ушли в тень.
Но даже в самые тёмные времена работа не останавливалась полностью. Некоторые учёные продолжали разрабатывать идеи, которые позже стали ключевыми. Например, Джон Хопфилд в 1982 году представил сети Хопфилда--рекуррентную сеть, которая работала как ассоциативная память. Она могла восстановить полный образ по его зашумлённому или неполному фрагменту. А Кунихико Фукусима в 1980 году разработал "Неокогнитрон"--многослойную иерархическую сеть, вдохновлённую строением зрительной коры мозга. В ней уже были заложены ключевые идеи современных свёрточных сетей: слои для извлечения локальных признаков и слои для их обобщения. Хотя эффективного алгоритма для обучения Неокогнитрона ещё не было, его архитектура стала прямым предком тех сетей, которые сегодня распознают лица на фотографиях.
Возрождение началось во второй половине 80-х, и его главной движущей силой стал один алгоритм--метод обратного распространения ошибки (backpropagation). Сама идея была известна и раньше, но именно статья Дэвида Румельхарта, Джеффри Хинтона и Рональда Уильямса 1986 года сделала её по-настояшему популярной и понятной. Этот алгоритм наконец-то дал эффективный способ обучать многослойные сети. Если говорить просто, он позволяет ошибке на выходе сети "путешествовать" в обратном направлении, от последнего слоя к первому, и на каждом шаге подсказывать нейронам, как именно им нужно изменить свои веса, чтобы в следующий раз результат был точнее. Это решило главную проблему, на которую указали Минский и Паперт, и открыло дорогу к созданию глубоких, сложных систем.
В это же время развивались и новые архитектуры. Появились рекуррентные нейронные сети (RNN), созданные для работы с последовательностями--например, с текстом или временными рядами. Однако у них была своя проблема: они плохо запоминали информацию на длинных дистанциях из-за так называемой проблемы исчезающих градиентов. Революционное решение в 1997 году предложили Зепп Хохрайтер и Юрген Шмидхубер, создав сети долгой краткосрочной памяти (LSTM). В них были специальные "вентили", которые позволяли сети самой решать, какую информацию из прошлого стоит запомнить, какую--забыть, а какую--использовать прямо сейчас. Это сделало их невероятно эффективными для задач вроде машинного перевода и распознавания речи.
Эти прорывы подкреплялись и практическими успехами. В 1985 году проект NetTalk показал, как нейросеть, обученная на словах, может научиться произносить их вслух. В лабораториях Bell Labs активно работали над распознаванием рукописного текста, что позже легло в основу систем автоматического чтения чеков. Даже появились первые специализированные "нейрочипы", которые пытались реализовать вычисления для нейросетей на аппаратном уровне. Хотя они не стали массовыми, это показало, что исследователи уже понимали: для серьёзных задач понадобится специальное железо.
В 90-е годы нейросети начали выходить из лабораторий и находить применение в реальном мире. Самым ярким примером стала работа Яна ЛеКуна и его команды в Bell Labs. В 1989 году они применили метод обратного распространения ошибки для обучения свёрточной нейронной сети, которую назвали LeNet. Её задачей было распознавание рукописных почтовых индексов. Успех был ошеломительным. К концу 90-х система на основе LeNet обрабатывала до 20% всех чеков в США. Это было первое крупное коммерческое применение глубокого обучения, которое доказало, что нейросети--это не просто академическая игрушка, а надёжная и прибыльная технология.
Тем временем LSTM-сети продолжали доказывать свою мощь в обработке речи. К 2007 году они начали превосходить традиционные подходы, а к 2015 году Google сообщила, что использование LSTM в системе распознавания речи на Android улучшило точность на 49%. Теория тоже не стояла на месте: в 1989 году была доказана теорема об универсальной аппроксимации. Она гласит, что нейросеть с одним скрытым слоем может аппроксимировать любую непрерывную функцию с любой желаемой точностью. Это дало прочное математическое основание для использования нейросетей в качестве универсальных "решателей" задач.
Параллельно шла подготовка к следующему рывку. Исследователи понимали, что для прогресса нужны две вещи: много данных и стандартные тесты для сравнения моделей. Примерно в 2007 году команда под руководством Фэй-Фэй Ли начала работу над проектом ImageNet--огромной базой данных из миллионов размеченных изображений. Позже на её основе был запущен ежегодный конкурс ILSVRC, который стал главным "олимпийским стадионом" для моделей компьютерного зрения. И, наконец, в 2009 году исследователи из Стэнфорда показали, что использование графических процессоров (GPU) может ускорить обучение нейросетей в 70 раз по сравнению с обычными процессорами. Все три компонента будущего взрыва--алгоритмы, данные и вычислительная мощность--были готовы.
Настоящая революция случилась в 2012 году. На том самом конкурсе ILSVRC команда Алекса Крижевского, Ильи Суцкевера и Джеффри Хинтона представила свёрточную нейросеть AlexNet. Она победила с таким ошеломительным отрывом, что это навсегда изменило мир ИИ. Её ошибка распознавания была на 10% ниже, чем у ближайшего конкурента. Секрет успеха был в комбинации нескольких факторов: очень глубокая архитектура, использование новой функции активации ReLU, которая ускоряла обучение, метод регуляризации Dropout для борьбы с переобучением и, самое главное,--обучение на двух мощных GPU. Эта победа стала сигналом для всех: глубокое обучение--это будущее. Крупные технологические компании вроде Google, Facebook и Microsoft начали массово инвестировать в эту область.
Успех AlexNet был бы невозможен без двух других "китов": больших данных, как ImageNet, и мощных вычислений на GPU. Графические процессоры, изначально созданные для игр, оказались идеально подходящими для параллельных вычислений, необходимых нейросетям. Это позволило обучать модели с миллионами и миллиардами параметров, что раньше было просто немыслимо.
После 2012 года начался взрывной рост. Исследователи стали создавать всё более глубокие и сложные архитектуры. VGGNet в 2014 году показала, что глубина решает. А в 2015 году появилась ResNet, которая решила проблему обучения сверхглубоких сетей с помощью "остаточных связей"--специальных "мостиков", которые позволяли градиенту беспрепятственно проходить через сотни слоёв. Благодаря ResNet в том же году компьютерное зрение впервые превзошло человеческие способности в задаче классификации на ImageNet. Появились и специализированные архитектуры вроде U-Net для сегментации изображений. Параллельно развивались фреймворки вроде TensorFlow и PyTorch, которые сделали разработку нейросетей доступной для тысяч инженеров и исследователей по всему миру.
С 2017 года начался новый этап, который можно назвать эрой универсальных моделей. Ключевым событием стала публикация статьи "Attention Is All You Need", в которой представили архитектуру "Трансформер". Она полностью отказалась от рекуррентных и свёрточных слоёв в пользу механизма "внимания". Этот механизм позволяет модели при обработке, скажем, слова в предложении, взвешивать важность всех остальных слов в этом же предложении одновременно, а не последовательно. Это не только ускорило обучение, но и позволило гораздо лучше улавливать длинные зависимости в данных. Трансформеры стали основой для гигантских языковых моделей, таких как BERT и GPT, которые демонстрируют поразительные способности в понимании и генерации текста. Позже эту архитектуру успешно адаптировали и для компьютерного зрения.
Одновременно произошёл бум в генеративном ИИ. Ещё в 2014 году Иэн Гудфеллоу представил генеративно-состязательные сети (GAN). В них две сети--генератор и дискриминатор--соревнуются друг с другом. Генератор пытается создать реалистичные данные (например, фото человека), а дискриминатор--отличить подделку от оригинала. В процессе этой "игры" генератор учится создавать настолько качественные подделки, что их не отличить от настоящих. Это привело к появлению таких систем, как DALL-E, которые могут генерировать сложные изображения по текстовому описанию. ИИ из инструмента анализа превратился в инструмент для творчества.
Несмотря на все успехи, сегодня перед нейросетями стоит несколько серьёзных вызовов. Во-первых, проблема "чёрного ящика": часто мы не можем точно объяснить, почему модель приняла то или иное решение. Это критично для медицины или беспилотных автомобилей. Для решения этой проблемы развивается нейро-символический ИИ, который пытается объединить обучаемость нейросетей с логикой и интерпретируемостью символьных систем. Во-вторых, огромная вычислительная стоимость. Обучение моделей вроде GPT-4 стоит сотни миллионов долларов и требует колоссального количества энергии, что поднимает экологические вопросы. В-третьих, этические проблемы: дипфейки, дезинформация, предвзятость в данных и влияние на рынок труда. Будущее нейросетей, вероятно, будет связано с поиском баланса между мощностью, эффективностью, безопасностью и прозрачностью.
"Туристы..." Георгий Зотов
Однажды Георгий смотрел, как некоторые города и страны жаловались на туристов. Прям заебали их эти туристы окаянные. Едут и везут свои деньги, как ненормальные. А жители тех городов и стран, может, хотят о духовности подумать, о просветлении. Но нет, их посланники демонов в шортах сбивают звоном проклятого злата.
На сайте CNN аж цельную статью разместили. Там жители японского города Киото рассказывают, как страдают от подлых туристов – мол, возникают чувства «дезориентации и потери равновесия». Сил никаких нет. Переполнили автобусы. В переулках толпятся. Суки, или, как принято говорить в Японии, суки-яки. Власти уж и налог туристический ввели, и запрет на посещение каких-то мест, а они всё едут и едут. Стыд последний потеряли.
В Барселоне и Венеции жители и вовсе выходили на митинги, требуя ограничить посещение иностранцами их милых городов. «Это как джинн вырвался из бутылки, - комментирует CNN бум путешествий. – Как бы загнать его обратно?». При этом, Япония отчаянно стимулирует приезд большего количества туристов. А теперь сама на них и жалуется. На Бали Георгий тоже в июле слышал страдания – вот, едут эти туристы, достали до печёнок, пробки из-за них, дорого всё. Губернатор рассуждает, надо сделать визу по $200, и отвратить недостойных от нашего рая. «И чего бы вы без них делали? – невежливо полюбопытствовал Георгий. – Рис собирали да макрель ловили?». И напомнил, как в 2021 году из-за ковида на Бали разразился (это не шутка) голод, и гуманитарным организациям пришлось завозить продовольствие. «Короткая у вас память» - резюмировал Георгий. Ему, конечно, не ответили.
В Сочи родимом Георгий тоже слышал жалобы. Вот отдыхающие то. Вот они это. Пьют на курорте (сочинцы же никогда не пьют). Понаехали отовсюду. «А деньги?» - неприятным тоном спросил Георгий. Людям это не понравилось. Они тут душу изливают, а Георгий для чего-то спрашивает про какие-то там деньги. Финансы сами собой возьмутся, знамо дело. Господь пошлёт или ещё как, неважно – ведь милость Всевышнего безбрежна.
Что интересно, Таиланд, в пандемию так же рассуждавший, что ему нужны люксовые туристы, а эти все бэкпекеры с дешёвыми хостелами и лапшой могут на хуй отправиться, пережил в прошлом году падение туризма на 6 %, и вдруг сильно обеспокоился. И готовит новые программы, чтобы привлечь 70 миллионов туристов в год, и загрести бабло. Казалось бы – вот оно, счастие. Туристы не едут, не загрязняют окружающую среду, не бухают и не ужасают всех своим блядским поведением. Но вот незадача – что-то не принято нигде послать в страну денег для прекрасной жизни местных жителей, а самим туда не приезжать. Глупое суеверие, ноль современности.
И теперь Георгию вообще непонятно – зачем же государства устраивают туристические выставки, тратят миллионы долларов на рекламу, зазывая к себе, если массовый туризм - это так плохо? Ну, не приглашайте, делов-то. У вас куча гостиниц и апартаментов, где работает дофигища людей. Множество ресторанов с обслуживающим персоналом. Таксистов, дерущих с туристов три шкуры. Экскурсоводов-одиночек и турагентств. Фотографов. Все они разом останутся без работы и денег, но зато, какая дивная красота спустится на пустынные улицы. Загляденье.
Честно говоря, Георгию такой подход, что турист должен за всё платить, и ещё выслушивать, как ему тут оказали милость, приняв у себя, уже давно не нравится. Вся эта политика с задиранием цен, диким подорожанием жилья и виз, идиотскими туристическими налогами и высказыванием туристу через губу, как из-за него тяжко местным жителям, яйца выеденного не стоит. Тем более, как в Таиланде – стоит туристу предпочесть другую страну, как сразу стон до небес поднимается – э, э, а нашим-то гражданам что кушать? Ну, так, ребята, и не нойте тогда. Стран в мире дофигища, и на вашей (какое горькое разочарование) свет клином не сошёлся. Когда Георгий перестал ездить в Европу, он открыл для себя много интересных мест на планете, и жалеет, что не поехал туда раньше.
Будьте вежливее. Не нужно забывать, кто вас кормит.
©Zотов
https://vk.com/wall736437447_177889
CNN предупредил о годах задержки ядерных разработок из-за шатдауна в США
США могут потерять годы в сроках разработки ядерных вооружений из-за продолжающегося шатдауна (приостановки работы правительства), сообщили источники телеканала CNN.
Собеседники уточнили, что из-за шатдауна большая часть сотрудников Национального управления по ядерной безопасности (NNSA) США — 1400 человек — была отправлена в неоплачиваемые отпуска. Это первый случай, когда агентству пришлось отправлять своих служащих в неоплачиваемый отпуск в период приостановки работы.
До того как у федерального агентства, которое занимается созданием ядерного оружия и обеспечением безопасности ядерного арсенала страны, закончилось финансирование, его должностные лица обратились в административно-бюджетное управление Белого дома со срочным запросом. Они просили разрешения на использование средств, выделенных в рамках ранее принятых законопроектов о расходах, для выплаты зарплат. Таким образом, агентству не пришлось отправлять работников в неоплачиваемый отпуск, пояснили CNN три источника, знакомые с ситуацией.
Эту просьбу, по их словам, отклонили, хотя ранее по такой же схеме финансировалась оплата труда американских военнослужащих, сотрудников таможенной и пограничной служб, агентов Береговой охраны США и других служащих федеральных правоохранительных органов.
Источник CNN в NNSA пояснил, что штатные сотрудники, отправленные в неоплачиваемый отпуск, в основном курируют разработку оружия. Другие инсайдеры, с которыми поговорил канал, пояснили, что были ошеломлены новостями, поскольку ведомство уже много десятилетий не было загружено так, как сейчас.
Собеседники в NNSA выразили опасения, что ситуация может привести к закрытию агентства. В свою очередь, это способно подорвать достижение целей по производству ядерного оружия, поставленных администрацией, полагают они.
Источники утверждают, что даже кратковременное прекращение производства может сдвинуть сроки создания оружия на месяцы, а возможно, и на годы, поскольку безопасная остановка работ с ядерными материалами, такими как плутониевые сердечники, — сложный процесс, который занимает до недели.
CNN отмечает, что NNSA в феврале уже пришлось столкнуться с чередой внезапных увольнений. За этим последовал повторный наем сотен работников в феврале, после чего в том же году прием новых сотрудников был временно остановлен.
Шатдаун — блокировка финансирования госорганов в США из-за непринятия бюджета конгрессом.
Текущий шатдаун продолжается с 1 октября из-за разногласий между республиканцами и демократами по ключевым расходным статьям бюджета, включая здравоохранение. Он стал вторым по продолжительности после 35-дневного перерыва в финансировании госорганов в конце 2018 года и начале 2019 года, который пришелся на первый президентский срок Дональда Трампа.
В четверг, 23 октября, сенат США в 12-й раз не смог принять законопроект о продолжении финансирования федерального правительства, необходимый для окончания шатдауна. С задержками в выплате зарплат столкнулись как гражданские служащие (например, авиадиспетчеры), так и военные.
В условиях шатдауна продолжают работать только те, кто обеспечивает защиту жизни и собственности (врачи, военнослужащие и т.д.), и ряд других лиц (например, президент и конгрессмены). Порядка 1,4 млн госслужащих либо отправлены в неоплачиваемый отпуск, либо работают без зарплаты.
Интересно, этот шатдаун побьёт рекорд по продолжительности шатдауна 2018-2019 годов?
Ответ на пост «В Венесуэлу прибыл российский Ил-76ТД с неизвестным грузом»1
Ну, как бы, да...
В России 14:42, 27 октября 2025
Путин подписал закон о ратификации договора с Венесуэлой о стратегическом партнерстве
Москва. 27 октября. https://www.interfax.ru/russia/1054944
В Венесуэлу прибыл российский Ил-76ТД с неизвестным грузом1
В Венесуэле зафиксировано прибытие российского транспортного самолета Ил-76ТД российской авиокомпании. О грузе, который он доставил, информации нет.
Данные сервиса FlightRadar24 подтверждают перелет. Борт вылетел из России 22 октября и сделал несколько остановок — в Армении, Алжире, Марокко, Сенегале и Мавритании.
Авиакомпания из РФ уже попадала под санкции США. В январе 2023 года её внесли в черный список за перевозки для российских предприятий, находящихся под ограничениями.
Ранее CNN сообщал, что американское руководство обсуждало возможность ударов по территории Венесуэлы. По данным источников, планировалось уничтожить объекты, связанные с производством кокаина. В Пентагоне также заявили о намерении направить в регион авианосную группу Южного командования.
Источник.
https://www.mk.ru/politics/2025/10/27/raskryto-chto-voennyy-...
Федеральные служащие США выстраиваются в длинную очередь за бесплатной едой на фоне шатдауна
Потерявшие работу люди по несколько часов ждут, чтобы получить коробку с продуктами, сообщает CNN. Около 1,4 млн человек — в неоплачиваемом отпуске или работают без зарплаты после приостановки работы правительства, отмечает телеканал.
«Сколько денег США потратили на Зеленского? Сколько это в переводе на «коробки с питанием»?» — Захарова
Ранее сообщалось, что в ноябре около 42 млн граждан США могут лишиться талонов на питание по этой же причине. Шатдаун длится уже 23 дня.






