Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Уникальная игра, в которой гармонично сочетаются знакомая механика «три в ряд» и тактические пошаговые сражения!

Магический мир

Мидкорные, Ролевые, Три в ряд

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
4
Аноним
Аноним

История нейросетей⁠⁠

1 месяц назад

История нейросетей началась с идеи--попытки описать работу человеческого мозга языком математики. Это было в середине 20-го века, когда нейрофизиологи, математики и кибернетики начали работать вместе. Главными героями того времени стали Уоррен Мак-Каллок и Уолтер Питтс. В 1943 году они опубликовали статью, в которой предложили первую математическую модель искусственного нейрона. Эта модель, известная как нейрон Мак-Каллока-Питтса, была очень простой. Она работала по принципу "всё или ничего": принимала на вход сигналы в виде нулей и единиц, и если их сумма превышала определённый порог, нейрон "срабатывал" и выдавал единицу. Если нет--оставался пассивным и выдавал ноль. Но самое гениальное было в том, что они доказали: из таких простых "переключателей", соединённых в сеть, можно собрать машину, способную выполнить любую логическую операцию. По сути, они показали, что нейронная сеть теоретически не уступает по возможностям машине Тьюринга, дав биологическое обоснование самой идее вычислений. Они создали целую концепцию, где интеллект--это результат работы сложной сети взаимосвязанных вычислительных элементов.

Если Мак-Каллок и Питтс создали "скелет", то Дональд Хебб вдохнул в него жизнь, предложив концепцию обучения. В своей книге 1949 года он сформулировал знаменитый принцип, который часто описывают фразой "нейроны, которые активируются вместе, связываются вместе". Идея была в том, что связь между двумя нейронами усиливается, если они срабатывают одновременно. Это было первое научное объяснение того, как мозг может учиться и запоминать что-то, просто адаптируясь к поступающей информации. Этот принцип стал основой для многих будущих алгоритмов обучения, где веса соединений между нейронами--это не что-то застывшее, а переменные, которые меняются с опытом.

В 50-е годы эти идеи начали потихоньку воплощаться в железе. В 1951 году Марвин Минский и Дин Эдмондс построили SNARC--первую физическую нейросетевую машину. Этот "шкаф" из 3000 вакуумных ламп мог научиться находить выход из лабиринта. Но настоящую шумиху поднял Фрэнк Розенблатт, который в 1957 году представил "Перцептрон". Это была однослойная нейросеть для классификации, которая, в отличие от предыдущих моделей, могла по-настоящему учиться на данных, подстраивая свои веса. Розенблатт даже создал физическую версию, Mark I Perceptron, и делал громкие заявления, что его машина однажды сможет обрести сознание. Это вызвало огромный интерес и волну оптимизма. Примерно в то же время Бернард Уидроу и Тед Хофф разработали системы ADALINE и MADALINE. Они были более приземлёнными и решали конкретные задачи--например, успешно использовались для подавления эха на телефонных линиях. Это стало одним из первых коммерческих применений нейросетей и показало их реальный потенциал. К концу 50-х нейросети прошли путь от абстрактной теории до работающих устройств, заложив основу как для будущих прорывов, так и для грядущего разочарования.

Этот первоначальный оптимизм был заразителен, но, как оказалось, построен на довольно хрупком фундаменте. Период с конца 50-х до 80-х годов стал для нейросетей американскими горками: от эйфории до глубокого кризиса, известного как первая "зима искусственного интеллекта". Общественность и правительства, вдохновлённые Перцептроном Розенблатта, ждали появления разумных машин чуть ли не завтра. Финансирование лилось рекой, исследователи были полны энтузиазма.

А потом, в 1969 году, Марвин Минский и Сеймур Паперт опубликовали книгу "Перцептроны", которая стала для этой области холодным душем. Они математически доказали, что однослойный перцептрон, на который все возлагали такие надежды, имеет фундаментальные ограничения. Он просто не мог решить задачи, которые не являются "линейно разделимыми". Самый известный пример--логическая операция XOR ("исключающее ИЛИ"). Представьте, что вам нужно провести одну прямую линию на листе бумаги, чтобы отделить точки одного класса от другого. Для XOR это невозможно. Минский и Паперт убедительно показали, что для таких задач нужны многослойные сети, но как их эффективно обучать, тогда никто не знал. Их критика, исходящая от авторитетных учёных из MIT, оказалась убийственной. У фондов и исследователей пропал энтузиазм, и финансирование начало иссякать.

Причины "зимы ИИ" были не только в одной книге. В 1973 году в Великобритании вышел отчёт Лайтхилла, который раскритиковал всю область ИИ за невыполненные обещания. В США приняли поправку Мэнсфилда, которая требовала от военных агентств, вроде DARPA, финансировать только прикладные, а не фундаментальные исследования. К тому же, компьютеры того времени были слишком слабыми для обучения сложных моделей, а данных было мало. В это же время набирал популярность символьный подход к ИИ--системы, основанные на строгих правилах и логике. Они казались более понятными и надёжными, чем нейросети, которые работали как "чёрные ящики". В итоге исследования нейросетей на целое десятилетие ушли в тень.

Но даже в самые тёмные времена работа не останавливалась полностью. Некоторые учёные продолжали разрабатывать идеи, которые позже стали ключевыми. Например, Джон Хопфилд в 1982 году представил сети Хопфилда--рекуррентную сеть, которая работала как ассоциативная память. Она могла восстановить полный образ по его зашумлённому или неполному фрагменту. А Кунихико Фукусима в 1980 году разработал "Неокогнитрон"--многослойную иерархическую сеть, вдохновлённую строением зрительной коры мозга. В ней уже были заложены ключевые идеи современных свёрточных сетей: слои для извлечения локальных признаков и слои для их обобщения. Хотя эффективного алгоритма для обучения Неокогнитрона ещё не было, его архитектура стала прямым предком тех сетей, которые сегодня распознают лица на фотографиях.

Возрождение началось во второй половине 80-х, и его главной движущей силой стал один алгоритм--метод обратного распространения ошибки (backpropagation). Сама идея была известна и раньше, но именно статья Дэвида Румельхарта, Джеффри Хинтона и Рональда Уильямса 1986 года сделала её по-настояшему популярной и понятной. Этот алгоритм наконец-то дал эффективный способ обучать многослойные сети. Если говорить просто, он позволяет ошибке на выходе сети "путешествовать" в обратном направлении, от последнего слоя к первому, и на каждом шаге подсказывать нейронам, как именно им нужно изменить свои веса, чтобы в следующий раз результат был точнее. Это решило главную проблему, на которую указали Минский и Паперт, и открыло дорогу к созданию глубоких, сложных систем.

В это же время развивались и новые архитектуры. Появились рекуррентные нейронные сети (RNN), созданные для работы с последовательностями--например, с текстом или временными рядами. Однако у них была своя проблема: они плохо запоминали информацию на длинных дистанциях из-за так называемой проблемы исчезающих градиентов. Революционное решение в 1997 году предложили Зепп Хохрайтер и Юрген Шмидхубер, создав сети долгой краткосрочной памяти (LSTM). В них были специальные "вентили", которые позволяли сети самой решать, какую информацию из прошлого стоит запомнить, какую--забыть, а какую--использовать прямо сейчас. Это сделало их невероятно эффективными для задач вроде машинного перевода и распознавания речи.

Эти прорывы подкреплялись и практическими успехами. В 1985 году проект NetTalk показал, как нейросеть, обученная на словах, может научиться произносить их вслух. В лабораториях Bell Labs активно работали над распознаванием рукописного текста, что позже легло в основу систем автоматического чтения чеков. Даже появились первые специализированные "нейрочипы", которые пытались реализовать вычисления для нейросетей на аппаратном уровне. Хотя они не стали массовыми, это показало, что исследователи уже понимали: для серьёзных задач понадобится специальное железо.

В 90-е годы нейросети начали выходить из лабораторий и находить применение в реальном мире. Самым ярким примером стала работа Яна ЛеКуна и его команды в Bell Labs. В 1989 году они применили метод обратного распространения ошибки для обучения свёрточной нейронной сети, которую назвали LeNet. Её задачей было распознавание рукописных почтовых индексов. Успех был ошеломительным. К концу 90-х система на основе LeNet обрабатывала до 20% всех чеков в США. Это было первое крупное коммерческое применение глубокого обучения, которое доказало, что нейросети--это не просто академическая игрушка, а надёжная и прибыльная технология.

Тем временем LSTM-сети продолжали доказывать свою мощь в обработке речи. К 2007 году они начали превосходить традиционные подходы, а к 2015 году Google сообщила, что использование LSTM в системе распознавания речи на Android улучшило точность на 49%. Теория тоже не стояла на месте: в 1989 году была доказана теорема об универсальной аппроксимации. Она гласит, что нейросеть с одним скрытым слоем может аппроксимировать любую непрерывную функцию с любой желаемой точностью. Это дало прочное математическое основание для использования нейросетей в качестве универсальных "решателей" задач.

Параллельно шла подготовка к следующему рывку. Исследователи понимали, что для прогресса нужны две вещи: много данных и стандартные тесты для сравнения моделей. Примерно в 2007 году команда под руководством Фэй-Фэй Ли начала работу над проектом ImageNet--огромной базой данных из миллионов размеченных изображений. Позже на её основе был запущен ежегодный конкурс ILSVRC, который стал главным "олимпийским стадионом" для моделей компьютерного зрения. И, наконец, в 2009 году исследователи из Стэнфорда показали, что использование графических процессоров (GPU) может ускорить обучение нейросетей в 70 раз по сравнению с обычными процессорами. Все три компонента будущего взрыва--алгоритмы, данные и вычислительная мощность--были готовы.

Настоящая революция случилась в 2012 году. На том самом конкурсе ILSVRC команда Алекса Крижевского, Ильи Суцкевера и Джеффри Хинтона представила свёрточную нейросеть AlexNet. Она победила с таким ошеломительным отрывом, что это навсегда изменило мир ИИ. Её ошибка распознавания была на 10% ниже, чем у ближайшего конкурента. Секрет успеха был в комбинации нескольких факторов: очень глубокая архитектура, использование новой функции активации ReLU, которая ускоряла обучение, метод регуляризации Dropout для борьбы с переобучением и, самое главное,--обучение на двух мощных GPU. Эта победа стала сигналом для всех: глубокое обучение--это будущее. Крупные технологические компании вроде Google, Facebook и Microsoft начали массово инвестировать в эту область.

Успех AlexNet был бы невозможен без двух других "китов": больших данных, как ImageNet, и мощных вычислений на GPU. Графические процессоры, изначально созданные для игр, оказались идеально подходящими для параллельных вычислений, необходимых нейросетям. Это позволило обучать модели с миллионами и миллиардами параметров, что раньше было просто немыслимо.

После 2012 года начался взрывной рост. Исследователи стали создавать всё более глубокие и сложные архитектуры. VGGNet в 2014 году показала, что глубина решает. А в 2015 году появилась ResNet, которая решила проблему обучения сверхглубоких сетей с помощью "остаточных связей"--специальных "мостиков", которые позволяли градиенту беспрепятственно проходить через сотни слоёв. Благодаря ResNet в том же году компьютерное зрение впервые превзошло человеческие способности в задаче классификации на ImageNet. Появились и специализированные архитектуры вроде U-Net для сегментации изображений. Параллельно развивались фреймворки вроде TensorFlow и PyTorch, которые сделали разработку нейросетей доступной для тысяч инженеров и исследователей по всему миру.

С 2017 года начался новый этап, который можно назвать эрой универсальных моделей. Ключевым событием стала публикация статьи "Attention Is All You Need", в которой представили архитектуру "Трансформер". Она полностью отказалась от рекуррентных и свёрточных слоёв в пользу механизма "внимания". Этот механизм позволяет модели при обработке, скажем, слова в предложении, взвешивать важность всех остальных слов в этом же предложении одновременно, а не последовательно. Это не только ускорило обучение, но и позволило гораздо лучше улавливать длинные зависимости в данных. Трансформеры стали основой для гигантских языковых моделей, таких как BERT и GPT, которые демонстрируют поразительные способности в понимании и генерации текста. Позже эту архитектуру успешно адаптировали и для компьютерного зрения.

Одновременно произошёл бум в генеративном ИИ. Ещё в 2014 году Иэн Гудфеллоу представил генеративно-состязательные сети (GAN). В них две сети--генератор и дискриминатор--соревнуются друг с другом. Генератор пытается создать реалистичные данные (например, фото человека), а дискриминатор--отличить подделку от оригинала. В процессе этой "игры" генератор учится создавать настолько качественные подделки, что их не отличить от настоящих. Это привело к появлению таких систем, как DALL-E, которые могут генерировать сложные изображения по текстовому описанию. ИИ из инструмента анализа превратился в инструмент для творчества.

Несмотря на все успехи, сегодня перед нейросетями стоит несколько серьёзных вызовов. Во-первых, проблема "чёрного ящика": часто мы не можем точно объяснить, почему модель приняла то или иное решение. Это критично для медицины или беспилотных автомобилей. Для решения этой проблемы развивается нейро-символический ИИ, который пытается объединить обучаемость нейросетей с логикой и интерпретируемостью символьных систем. Во-вторых, огромная вычислительная стоимость. Обучение моделей вроде GPT-4 стоит сотни миллионов долларов и требует колоссального количества энергии, что поднимает экологические вопросы. В-третьих, этические проблемы: дипфейки, дезинформация, предвзятость в данных и влияние на рынок труда. Будущее нейросетей, вероятно, будет связано с поиском баланса между мощностью, эффективностью, безопасностью и прозрачностью.

Показать полностью
[моё] Глубокое обучение Обучение Машинное обучение История (наука) Искусственный интеллект Нейронные сети Технологии Наука CNN Трансформеры Текст Длиннопост
1
13
SlyVolunteer
SlyVolunteer
Программирование на python

Гайд по PyTorch⁠⁠

1 год назад

3 нейросети за 60 минут

Ноутбук colab: https://colab.research.google.com/drive/1sHLuc6qO5i42oQh_BFq...

PyTorch — это довольно низкоуровневая библиотека по созданию нейросетей, где мы можем управлять созданием слоев, даже непосредственно тензорами и расчётом градиентного спуска.

  • 00:00:00

    Создание нейронной сети

    • • Создание копии нейронной сети с ключом для демонстрации.

    • • Установка библиотек для работы с данными и нейронными сетями.

  • 00:02:41

    Создание трансформатора данных

    • • Создание трансформатора данных для подготовки данных.

    • • Нормализация данных и создание дата лоудера для загрузки данных.

  • 00:06:02

    Создание нейронной сети

    • • Создание линейного слоя нейронной сети с 756 входными нейронами, 128 выходными нейронами и 10 выходными нейронами.

    • • Определение активационных функций для каждого слоя.

  • 00:09:06

    Работа нейронной сети

    • • Демонстрация работы нейронной сети на примере распознавания рукописных цифр.

    • • Подсчет количества параметров в нейронной сети.

  • 00:11:02

    Создание нейронной сети

    • • Создание примитивной нейронной сети на Python с использованием слоев и активационных функций.

    • • Обсуждение важности понимания принципов работы нейронных сетей и использования специальных инструментов для обучения и оптимизации.

  • 00:15:42

    Функция потерь и обучение нейронной сети

    • • Объяснение алгоритма обратного распространения ошибки для обучения нейронной сети.

    • • Обсуждение различных методов ошибок и оптимизаторов для обучения нейронных сетей.

  • 00:18:18

    Оптимизация и обучение нейронной сети

    • • Обсуждение различных оптимизаторов для обучения нейронных сетей, таких как Adam и другие.

    • • Объяснение процесса обучения нейронной сети, включая выбор шага обучения и его изменение в процессе обучения.

  • 00:22:20

    Обучение нейронной сети

    • • В видео объясняется процесс обучения нейронной сети с использованием градиента.

    • • Обучение происходит в рамках одной эпохи, где моделька обучается на всех данных перед обучением.

    • • Оптимизатор обнуляется, и моделька обучается в режиме обучения.

    • • Ошибка между ответом нейронки и правильными ответами рассчитывается и распространяется назад для обучения весов.

  • 00:28:22

    Влияние выбора функции активации

    • • Ступенчатая функция не мешает градиенту, и расчеты градиентов могут быть выполнены даже для недифференцированных функций.

  • 00:29:04

    Вычисление и тестирование

    • • Моделька и тестовый лоудер проверяются на тестовой выборке.

    • • Градиенты отключаются, и ответы нейронки сравниваются с правильными ответами.

    • • Точность нейронки составляет 97,47%.

  • 00:31:20

    Динамическое структурирование нейронной сети

    • • В Keras нейронка жестко прошита, в то время как в Torch можно динамически менять слои.

    • • Это позволяет более гибко управлять графом нейронки и обучением.

  • 00:33:08

    Обучение с подкреплением

    • • Обучение с подкреплением может иметь преимущество, но это зависит от конкретного проекта.

    • • В видео также обсуждается нелинейность и визуализация предсказаний модели.

  • 00:34:56

    Линейность в пространстве весов

    • • В пространстве весов функция становится нелинейной, когда есть два слоя.

    • • В пространстве данных функция остается линейной, так как данные не меняются.

  • 00:42:19

    Нормализация и предобученная модель

    • • Нормализация используется для предобученной модели, которая принимает картинки размера 224x224.

    • • Модель обучена на огромном датасете, и веса уже установлены.

  • 00:45:11

    Использование видеокарты и ускорение обучения

    • • Если есть видеокарта, обучение на ней будет быстрее, чем на процессоре.

    • • Ускорение может быть от 5 до 50 раз.

  • 00:48:05

    Автоэмли библиотеки и цифры

    • • Авто ML библиотеки существуют для Пайторч, но автор не может назвать конкретные.

    • • Цифры, которые умножаются, изначально задаются случайными, а затем оптимизируются в процессе обучения.

  • 00:49:57

    Создание нейронной сети

    • • Создание нейронной сети для классификации изображений с использованием Keras.

    • • Обучение сети на 25 эпох с использованием функции обучения Adam.

    • • Визуализация результатов обучения и оценка точности.

  • 00:53:27

    Визуализация предсказаний модели

    • • Создание линейной сети с 2024, 512, 256, 128, 64 и 32 нейронами.

    • • Использование активационных функций и dropout для предотвращения переобучения.

    • • Обучение модели на 200 эпох с использованием функции средней квадратичной ошибки.

  • 00:57:29

    Обучение и проверка нейронной сети

    • • Обучение модели на проверочных выборках для определения момента остановки обучения.

    • • Остановка обучения, если в течение 20 эпох точность не улучшается.

    • • Обучение нейронной сети на 200 эпох и остановка на 141 эпохе.

  • 01:00:11

    Результаты обучения и выводы

    • • Средняя цена квартиры, предсказанная нейронной сетью, составляет 8 900 000 рублей.

    • • Средняя ошибка составляет 10,85%.

    • • Нейронная сеть показывает точность 400 000 отброса, что в 2,5 раза ниже, чем у реальной цены.

  • 01:03:38

    Влияние драпаутов на обучение

    • • Обсуждение влияния драпаутов на обучение, включая отбрасывание несущественных признаков и изменение корреляции нейронов.

    • • Упоминается, что драпауты могут привести к тому, что нейросети начинают подхватывать себя и обучаться признакам.

  • 01:05:39

    Применение временных рядов

    • • Утверждается, что временные ряды могут быть обучены с помощью нейросетей, таких как пайторч и керос.

    • • Отмечается, что архитектура нейросети играет важную роль в обучении временных рядов.

  • 01:08:17

    Выбор всех пяти из текста

    • • Обсуждается задача выбора всех пяти из текста, которая может быть решена с помощью нейросети.

    • • Упоминается, что это другая задача, чем обучение нейросети.

  • 01:09:30

    Сравнение с другими фреймворками

    • • Сравниваются пайторч и керос, и утверждается, что пайторч используется чаще в реальных проектах.

    • • Упоминается, что пайторч может быть написан на языке программирования C++, но это не было проверено.

Youtube:

VK:

Показать полностью 2
Python Гайд Глубокое обучение Видео YouTube Видео ВК Длиннопост
3
2
user5308564
user5308564

Как нейросети видят пользователей arch⁠⁠

2 года назад
Как нейросети видят пользователей arch
Показать полностью 1
Архитектура Машинное обучение Искусственный интеллект Нейронные сети Глубокое обучение
3
alexmarned

Для чего в меня запихивали математику многие годы?⁠⁠

3 года назад

В универе было много математики, перед тем в школе. Бесконечные теоремы, методы решения уравнений и задач, признаки и аксиомы - я прилежно учился.


Перед выпуском из университета один из преподавателей профильного предмета немного отвлечённо сказал -"Вся эта математика в действительности работает и отображает реальную ситуацию. Только вот чисел, что бы подставить их в тензоры, нам взять неоткуда. В реальной работе вообще не получится. Есть отдельные исследования,. в которых мы получаем данные, только это всегда лаборатория, сложнейшие комплексные исследования нескольких точек и это всё. То есть только статические данные, по времени на исследования в самом лучшем варианте пять - шесть часов, а ведь у нас динамические процессы измерыемые сотнями метров в секунду и высокие температуры, но никаких даже предположений как это сделать нет. "


И  в своей  работе я никогда не встречал никаких попыток применения какой либо из всех профильных теорий из математики. В журналах как минимум трёх пятилеток вообще все предпочитают построить математическую модель и даже без попыток её объяснить. Техника стала доступнее и модели можно делать без вникания в теорию, тут и красивые графики выдаёт, для статьи большего и не надо. Несколько статей и гораздо легче защищаться.


С месяц назад прочел статью о машинном обучении. Мне его применять почти некуда, стат пакеты дают прогнозы нагляднее, только в статье расписывались шаги по распознаванию текстов и смыслов. А этим я продолжаю заниматься, не в таком масштабе как крупные игроки, но не прекращаю уже пару лет.


И читая статью, осознаю что я двигаются по тем же шагам. И даже в том же порядке, что и передо мной. Остался один шаг - нейронные сети. Нашёл книги по вопросам глубокого обучения а там математика. Та же самая, изучению которой я  отдал годы своей жизни. Те-же вектора, скаляры, матрицы, тензоры, выпуклость / вогнутость, дифференцирование, пределы,  теоремы сходимости и всё остальное до боли знакомое. Вспоминалось всё моментально.


Ну если это применимо в моделировании только в последние десять лет, то зачем тогда  мне это забивали в мозги все университетские годы? К чему нас готовили и не говорили этого вслух, шесть лет математики, применить которую я при всей фантазии не мог. Мне и сейчас нет точки приложения для машинного обучения,  но хоть понял, как эту математику применять. А раньше для чего? Ядерные взрывы моделировать? Вот кто знает ответ на этот вопрос, поделитесь.

Показать полностью
[моё] Программирование Математика Моделизм Бизнес Глубокое обучение Нейронные сети Текст
18
38
Dildodemon
Dildodemon

О хитром админе⁠⁠

4 года назад

Было у меня в городе в конце нулевых небольшое конструкторское бюро. И вот однажды директриса этого КБ вздумала расширить штат сотрудников. Естественно, для этого нужно было закупить компьютеры. Проблемы закупки легли на плечи главного (и единственного) админа.

Админ, не будь дурак, тут же предложил купить б/у компы у своего знакомого директора ООО "Рога и копыта".

У директрисы возник вопрос, почему, собственно, б/у компы стоят дороже таких же, но новых.

Админ не растерялся: несколько дней он навяливал ей на уши что-то типа:
"Елена Сергеевна, эти компы стоят дороже новых потому что они ОБУЧЕННЫЕ! Компьютер - сложная система с возможностью самообучения. Когда компьютер выполняет типовые задачи, он запоминает, как их делать, и в следующий раз выполняет их быстрее".
И всё это время админ размахивал перед директрисой распечатками передовых статей про глубокое обучение и сыпал непонятными словами навроде "ограниченной машины Больцмана".
Про то, что нейросети к бэушным компам отношения не имеют, он упомянуть забыл.

Собственно, спустя два месяца, компы были куплены, а админ с довольной рожей уехал в отпуск в далёкие тёплые страны.

Мораль: будучи руководителем, старайтесь вникать в то, о чем вам говорят подчинённые.

Показать полностью
[моё] Системное администрирование Закупки Нейронные сети Глубокое обучение Обман Работа Текст
10
861
FabLabCFU
Искусственный интеллект

На пути к нейросети⁠⁠

5 лет назад

Мы занимаемся разработкой экзоскелета кисти с биологической обратной связью для реабилитации детей с синдромом ДЦП. А точнее, пытаемся обучить нейросеть распознавать сигналы мозга для управления экзокистью.

Хочу рассказать, с чего началось и как продвигается наше исследование.

Несколько месяцев назад мы начали подготовку данных - сняли около 1000 энцефалограмм, которые содержат признаки, характерные для мысленного представления определенных движений кистью. Всего планируем снять 2000 ЭЭГ, но уже сейчас у нас достаточно данных для начала работы.

Следующий этап - установка видеокарты GeForce RTX 3090 c GDDR6 24Гб. Она позволяет обрабатывать большие обучающие выборки благодаря наличию большого объема памяти и использованию технологии CUDA. Но в новизне видеокарты скрывались подводные камни, которые я не без труда, но с успехом преодолел.

Видеокарта «взлетела» не сразу. Для начала стало ясно, что она не помещается ни в один из имеющихся в наличии корпусов. Был приобретен новый корпус Full Tower и отдельно блок питания на 750Вт. При попытке задействовать возможности CUDA в обучении нейронных сетей возникла следующая проблема – видеокарта слишком новая, фреймворки и библиотеки для искусственного интеллекта (DeepLearning4j, Theano, TensorFlow) её еще не поддерживают. Выход – скачать исходники фреймворков для ИИ и самостоятельно перекомпилировать их для поддержки видеокарты. Однако в процессе оказалось, что эти фреймворки ускоряются не только за счет ресурсов видеокарты, но и требуют поддержки современных инструкций процессора. Был приобретен современный процессор Inter Core I7-10700K с поддержкой AVX, AVX2 команд – , вместе с новой материнской платой и 32 Гб DDR4.


И вот наконец GeForce RTX 3090 смогла продемонстрировать свои возможности!


На первом графике видно, как задействуется память видеокарты и ресурсы GPU при обучении Convolution 1D — сверточной одномерной сети, обрабатывающей временные ряды — данные исследований ЭЭГ. Ранее обучение нейронной сети на этом датасете занимало около 4 часов. На новой видеокарте — порядка 3-4 секунд.

А вот задача посложнее: LSTM — рекуррентная сеть с долгой краткосрочной памятью. Те же данные считаются дольше — около 2 минут, и нагрузка на GPU выше:

Видеокарта решает! Раньше при внесении даже небольших изменений в конфигурацию сети, приходилось ждать несколько часов, чтобы понять, каким образом внесенные изменения отобразились на качестве распознавания признаков нейронной сетью. Теперь эта задача существенно облегчается.


Таким образом, видеокарту удалось запустить в Keras, используя только что вышедшее обновление TensorFlow в версии для GPU.

Однако эти решения используют Python, который при всех его положительных качествах (возможность быстрого прототипирования нейронных сетей, развитые библиотеки для работы с данными, простота и скорость разработки приложений) плохо подходит для многопоточных задач, когда в пределах одного приложения надо получать данные с устройства в реальном масштабе времени, обрабатывать их, подавать на вход ИНС, сохранять в файл, управлять внешними устройствами, рисовать данные на экране и т.д.

Поэтому необходимо было получить возможность работать с ИНС в Java-приложениях, но с этим из-за использования слишком нового железа возникли трудности. Описанными в мануалах способами GPU никак не хотел подключаться, и решения на тематических форумах на сайте разработчиков и GitHub не было, а те рецепты решения проблемы, которые советовали разработчики, не помогали.


Возникло понимание, что причина проблемы - в несовместимости ряда библиотек, компонентов фреймворка, с новыми библиотеками CUDA от NVIDIA.

Пришлось скачивать исходники и пытаться собирать библиотеки под необходимые платформы: CUDA 11.* и CuDNN 8.*, что оказалось нетривиальной задачей: имелось несколько тысяч файлов и масса условий окружения для нормальной сборки, а мануалы описывали сборки устаревших версий и не работали с новыми.

Кроме того, в исходных кодах возникали некоторые ошибки компиляции, одинаковые как для компиляции из Windows 10 (VS2019), так и из Ubuntu (gcc).

Удалось скомпилировать, после правки исходных кодов, часть зависимых библиотек проекта - libnd4j, а затем уже с ними библиотеку nd4j-cuda-11.1.


Ранее поддержка проекта рекомендовала использовать snapshots - версии библиотек из специального репозитория:


«we’ll be releasing a version with 11.0 in a bit, for now you can use snapshots and see if that works? https://deeplearning4j.konduit.ai/config/config-snapshots»


Однако, как оказалось, часть необходимых для работы файлов там отсутствовала, и рекомендация не помогла.


https://oss.sonatype.org/service/local/artifact/maven/redire...

404 — Not Found

Path /org/nd4j/nd4j-cuda-11.0/1.0.0-SNAPSHOT/nd4j-cuda-11.0-1.0.0-20201117.023522-181-windows-x86_64.jar not found in local storage of repository «Snapshots» [id=snapshots]


Что и обусловило компиляцию недостающих файлов. К счастью, версия deeplearniung4j для 11.0 версии CUDA импортировалась, и, добавив в проект в виде отдельных jar и dll файлов скомпилированные библиотеки, удалось запустить приложение на видеокарте!


Часть POM файла работоспособного проекта:

Скомпилированные библиотеки добавлены в зависимости вручную:

В данном случае - обучение на сравнительном не большом объеме данных заняло 42 минуты 37 секунд, на CPU эта же задача выполнялась более 2500 минут при полной загрузке процессора.


Вот так я сам добавил поддержку современных видеокарт в Deeplearniung4j, чтобы не дожидаться, пока это сделают разработчики.


Спасибо за внимание. Пока мы еще в начале пути, буду продолжать рассказывать о нашей работе!

Показать полностью 5
[моё] Нейронные сети Глубокое обучение Cuda Длиннопост Nvidia Текст ЭЭГ
126
5
chuvpilo
chuvpilo
Искусственный интеллект

Кто лидирует в искусственном интеллекте в 2020 году? Анализ публикаций конференции по машинному обучению ICML 2020⁠⁠

5 лет назад

ПРЕДИСЛОВИЕ


Международная конференция по машинному обучению (International Conference on Machine Learning, или ICML) — одна из самых престижных научных конференций в области искусственного интеллекта (другая — Конференция по нейронным системам обработки информации, или NeurIPS). В 2020 году процент принятых в ICML статей составил 21,8% (22,6% в 2019 году) — в общей сложности было принято 1088 статей из 4990 представленных. Используя материалы конференции (ICML 2020), мы изучили каждую из принятых статей и составили список авторов и связанных с ними организаций, а затем рассчитали индекс публикаций для каждой из этих организаций (см. далее раздел “методология”). Самое интуитивное объяснение понятия “индекс публикаций” — с точки зрения эквивалентных полных статей: индекс публикаций Google, равный 92,2, можно интерпретировать так, как если бы Google опубликовал 92,2 полных статей на ICML 2020.


Мы начнем этот анализ с подробностей методологии, перейдем к рейтингам исследований искусственного интеллекта на ICML 2020, затем покажем интересную описательную статистику, обсудим изменения среди лидеров ICML 2019 и ICML 2020 и, наконец, поделимся ссылкой на наши файлы с данными.



МЕТОДОЛОГИЯ


Методология нашего индекса публикаций получила вдохновение от индекса журнала Nature (Nature Index):


Для определения вклада страны, региона или учреждения в статью и обеспечения того, чтобы они не учитывались более одного раза, индекс Nature использует дробный подсчет (ДП), который учитывает долю авторства по каждой статье. Общая сумма ДП, доступная для каждой статьи, равна 1, и она распределяется между всеми авторами при условии, что каждый из них внес свой вклад в равной степени. Например, статья с 10 авторами означает, что каждый автор получает оценку 0.1. Для авторов, связанных более чем с одним учреждением, авторский ДП затем делится поровну между каждым учреждением. Общая сумма ДП для учреждения рассчитывается путем суммирования ДП для отдельных аффилированных авторов. Этот процесс аналогичен для стран/регионов, хотя и осложняется тем фактом, что некоторые учреждения имеют зарубежные лаборатории, которые будут учитываться при подсчете итоговых данных по принимающей стране/региону.

Единственная разница заключается в том, что наш индекс публикаций учитывает зарубежные лаборатории по стране/региону штаб-квартиры (а не принимающей стране/региону). Это спорный момент, но мы считаем, что такой подход лучше отражает передачу интеллектуальной собственности и соответствующую выгоду, получаемую штаб-квартирой, а не местной лабораторией.


Вот пример расчета индекса публикации. Если у статьи пять авторов — три из Массачусетского технологического института (MIT), один из Оксфордского университета и один из Google, то каждый автор получит 1/5 от одного балла, или 0,2. В результате только из этой статьи MIT увеличит свой индекс публикаций на 3*0,2=0,6 пункта, Оксфордский университет увеличит свой индекс на 0,2, а Google добавит 0,2. Поскольку MIT базируется в Соединенных Штатах, MIT увеличит индекс публикаций США на 0,6. Аналогичным образом, поскольку Оксфордский университет базируется в Великобритании, категория “Европейская экономическая зона + Швейцария” увеличится на 0,2. Наконец, Google является многонациональной корпорацией со штаб-квартирой в Соединенных Штатах, поэтому Соединенные Штаты увеличат свой индекс публикаций еще на 0,2, а общее увеличение составит 0,8. Если у автора несколько аффилированных организаций, мы разделяем его долю на каждую из этих организаций. Например, в приведенном выше случае, если бы последний автор перечислил две аффилированных организации, Google и Стэнфордский университет (а не только Google), то и Google, и Стэнфордский университет получат дополнительные 0,2/2=0,1 балла.



РЕЙТИНГ МИРОВЫХ ЛИДЕРОВ В СФЕРЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА ICML 2020


Топ-50 глобальных организаций (коммерческие и научные организации), лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

1. Google (США) — 92,2

2. Стэнфордский университет (США) — 39,2

3. Массачусетский технологический институт (США) — 38,5

4. Калифорнийский университет в Беркли (США) — 34,2

5. Университет Карнеги-Меллона (США) — 24,0

6. Microsoft (США) — 22,6

7. Facebook (США) — 17,1

8. Принстонский университет (США) — 17,0

9. Оксфордский университет (Великобритания) — 16,3

10. Техасский университет в Остине (США) — 14,3

11. Калифорнийский университет в Лос-Анджелесе (США) — 14,3

12. Университет Дьюка (США) — 14,1

13. Федеральная политехническая школа Лозанны (Швейцария) — 13,9

14. Гарвардский университет (США) — 13,7

15. Корнельский университет (США) — 12,6

16. Швейцарская высшая техническая школа Цюриха (Швейцария) — 12,4

17. Университет Цинхуа (Китай) — 12,3

18. Национальный университет Сингапура (Сингапур) — 12,2

19. Пенсильванский университет (США) — 12,1

20. Технион (Израиль) — 12,1

21. IBM (США) — 10,7

22. Вашингтонский университет (США) — 9,7

23. Калифорнийский университет в Сан-Диего (США) — 9,5

24. Мэрилендский университет (США) — 9,0

25. Пекинский университет (Китай) — 8,9

26. Технологический институт Джорджии (США) — 8,8

27. Иллинойский университет в Урбана-Шампейне (США) — 8,7

28. Висконсинский университет в Мадисоне (США) — 8,7

29. Университет Торонто (Канада) — 8,3

30. MILA — Институт обучающихся алгоритмов Монреаля (Канада) — 8,0

31. KAIST — Корейский институт передовых технологий (Южная Корея) — 8,0

32. Техасский университет A&M (США) — 7,9

33. RIKEN — Институт физико-химических исследований (Япония) — 7,8

34. Кембриджский университет (Великобритания) — 7,8

35. Колумбийский университет (США) — 7,8

36. Массачусетский университет в Амхерсте (США) — 7,5

37. INRIA — Государственный институт исследований в информатике и автоматике (Франция) — 7,5

38. Нью-Йоркский университет (США) — 7,1

39. Университетский колледж Лондона (Великобритания) — 6,8

40. Университет Южной Калифорнии (США) — 6,8

41. Йельский университет (США) — 6,6

42. Яндекс (Россия) — 6.0

43. Шанхайский Университет Цзяо Тун (Китай) — 5,7

44. Университет Миннесоты (США) — 5,6

45. Чикагский университет (США) — 5,6

46. Университет Макгилла (Канада) — 5,5

47. Сеульский национальный университет (Южная Корея) — 5,5

48. Тюбингенский университет (Германия) — 5,5

49. Университет Альберты (Канада) — 5,4

50. Университет Райса (США) — 5,3


Топ-20 американских университетов, лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

1. Стэнфордский университет — 39,2

2. Массачусетский технологический институт — 38,5

3. Калифорнийский университет в Беркли — 34,2

4. Университет Карнеги-Меллона — 24,0

5. Принстонский университет — 17,0

6. Техасский университет в Остине — 14,3

7. Калифорнийский университет в Лос-Анджелесе — 14,3

8. Университет Дьюка — 14,1

9. Гарвардский университет — 13,7

10. Корнельский университет — 12,6

11. Пенсильванский университет — 12,1

12. Вашингтонский университет — 9,7

13. Калифорнийский университет в Сан-Диего— 9,5

14. Мэрилендский университет — 9,0

15. Технологический институт Джорджии — 8,8

16. Иллинойский университет в Урбана-Шампейне — 8,7

17. Висконсинский университет в Мадисоне — 8,7

18. Техасский университет A&M — 7,9

19. Колумбийский университет — 7,8

20. Массачусетский университет в Амхерсте — 7,5


Топ-20 университетов мира, лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

1. Стэнфордский университет (США) — 39,2

2. Массачусетский технологический институт (США) — 38,5

3. Калифорнийский университет в Беркли (США) — 34,2

4. Университет Карнеги-Меллона (США) — 24,0

5. Принстонский университет (США) — 17,0

6. Оксфордский университет (Великобритания) — 16,3

7. Техасский университет в Остине (США) — 14,3

8. Калифорнийский университет в Лос-Анджелесе (США) — 14,3

9. Университет Дьюка (США) — 14,1

10. Федеральная политехническая школа Лозанны (Швейцария) — 13,9

11. Гарвардский университет (США) — 13,7

12. Корнельский университет (США) — 12,6

13. Швейцарская высшая техническая школа Цюриха (Швейцария) — 12,4

14. Университет Цинхуа (Китай) — 12,3

15. Национальный университет Сингапура (Сингапур) — 12,2

16. Пенсильванский университет (США) — 12,1

17. Технион (Израиль) — 12,1

18. Университет Вашингтона (США) — 9,7

19. Калифорнийский университет в Сан-Диего (США) — 9,5

20. Мэрилендский университет (США) — 9,0


Топ-20 глобальных компаний, лидирующих в исследованиях искусственного интеллекта на ICML 2020 (с индексами публикаций):

1. Google (США) — 92,2

2. Microsoft (США) — 22,6

3. Facebook (США) — 17,1

4. IBM (США) — 10,7

5. Яндекс (Россия) — 6,0

6. Amazon (США) — 5,2

7. OpenAI (США) — 4.4

8. Criteo (Франция) — 4,4

9. Uber(США) — 4,3

10. Samsung (Южная Корея) — 4,2

11. Baidu (Китай) — 3,9

12. Apple (США) — 3,7

13. Alibaba (Китай) — 2,8

14. Huawei (Китай) — 2,6

15. Intel (США) — 2,1

16. NVIDIA (США) — 2,0

17. Qualcomm (США) — 2,0

18. NEC (Япония) — 1,8

19. Salesforce (США) — 1,7

20. Bosch (Германия) — 1,6



ДАЛЬНЕЙШИЙ АНАЛИЗ


Top-50 глобальных организаций (коммерческие и научные организации) — сравнение количества статей на ICML 2019 и ICML 2020 (с индексами публикаций):

1. Google: +19,4

2. Стэнфордский университет: +14,7

3. Массачусетский технологический институт: +15,4

4. Калифорнийский университет в Беркли: +10,0

5. Университет Карнеги-Меллона: +4,8

6. Microsoft: +5,9

7. Facebook: +7.6

8. Принстонский университет: +6,3

9. Оксфордский университет: +2,7

10. Техасский университет в Остине: +3,4

11. Калифорнийский университет в Лос-Анджелесе: +5,9

12. Университет Дьюка: +6,9

13. Федеральная политехническая школа Лозанны: +4,3

14. Гарвардский университет: +6,7

15. Корнельский университет: +2,0

16. Швейцарская высшая техническая школа Цюриха: +0,3

17. Университет Цинхуа: +2,8

18. Национальный университет Сингапура: +9,7

19. Пенсильванский университет: +8,1

20. Технион: +3,9

21. IBM: +0.3

22. Вашингтонский университет: +0,6

23. Калифорнийский университет в Сан-Диего: +7.2

24. Мэрилендский университет: +4,7

25. Пекинский университет: +3,1

26. Технологический институт Джорджии: -5,7

27. Иллинойский университет в Урбана-Шампейне: -0,8

28. Висконсинский университет в Мадисоне: +4,7

29. Университет Торонто: +1,8

30. MILA — Институт обучающихся алгоритмов Монреаля: +4.3

31. KAIST — Корейский институт передовых технологий: -3.1

32. Техасский университет A&M: +5,1

33. RIKEN — Институт физико-химических исследований: +2.2

34. Кембриджский университет: +1,7

35. Колумбийский университет: +1,9

36. Массачусетский университет в Амхерсте: +3,3

37. INRIA — Государственный институт исследований в информатике и автоматике: +1,0

38. Нью-Йоркский университет: +3,4

39. Университетский колледж Лондона: +2,6

40. Университет Южной Калифорнии: +2,4

41. Йельский университет: +3,0

42. Яндекс: +4.3

43. Шанхайский Университет Цзяо Тун: +3,5

44. Университет Миннесоты: +2,2

45. Чикагский университет: +3,0

46. Университет Макгилла: +1,7

47. Сеульский национальный университет: -1,8

48. Тюбингенский университет: +4,5

49. Университет Альберты: +3,2

50. Университет Райса: +3,9


Облако слов названий статей на ICML 2020:

ОБСУЖДЕНИЕ


Давайте посмотрим, что изменилось в авторстве статей на ICML 2019 и ICML 2020 (данные за 2019 год см. в нашем рейтинге искусственного интеллекта на ведущих конференциях за 2019 год, где мы объединили статистику по NeurIPS 2019 и ICML 2019). Как видно в статистике, пятью ведущими мировыми организациями, лидирующими в исследованиях искусственного интеллекта, по-прежнему являются Google, Стэнфордский университет, Массачусетский технологический институт, Калифорнийский университет в Беркли и Университет Карнеги-Меллона. Каждый из них значительно увеличил свой индекс публикаций на ICML 2020 по сравнению с ICML 2019: Google опубликовал эквивалент дополнительных 19,4 статей на ICML 2020, Стэнфордский университет вырос на 14,7, Массачусетский технологический институт вырос на 15,4, Калифорнийский университет в Беркли вырос на 10,0, а Университет Карнеги-Меллона вырос на 4,8. Как и в гонке Красной Королевы Льюиса Кэрролла, ведущие исследователи каждый год вынуждены публиковать всё больше статей, чтобы сохранить своё лидерство.


«Нужно бежать со всех ног, чтобы только оставаться на месте, а чтобы куда-то попасть, надо бежать как минимум вдвое быстрее!». (Льюис Кэрролл)


ДАННЫЕ


Поскольку конференции не публикуют данные о статьях в стандартной форме, нам пришлось делать анализ вручную (анализ HTML, преобразования в Python, стандартизация названий организаций и исправление опечаток авторов, объединение в сводную таблицу). Если Вы обнаружите какие-либо ошибки, пожалуйста, напишите нам, и мы будем рады их исправить. Если Вы хотите скачать наш файл с данными, он размещен здесь. Желаем успехов!



О СЕБЕ


Меня зовут Глеб Чувпило, и я управляющий партнер венчурной компании Thundermark Capital, инвестирущей в стартапы в области искусственного интеллекта и робототехники. Я получил степень магистра в Лаборатории компьютерных наук и искусственного интеллекта Массачусетского технологического института и степень MBA в области финансов и стратегического менеджмента в Уортонской школе бизнеса Пенсильванского университета. Вы можете прочитать обо мне здесь. Пожалуйста, напишите мне по адресу gleb@thundermark.com если Вы хотите поговорить об искусственном интеллекте, робототехнике, инновациях вообще или о своей идее для стартапа в частности. 🤖

Показать полностью 6
[моё] Искусственный Интеллект Машинное Обучение Глубокое Обучение Стартап Длиннопост
4
39
Mike317
Искусственный интеллект

Искусственный интеллект позволяет менять черты лица и эмоции в реальном времени⁠⁠

5 лет назад
Искусственный интеллект Машинное обучение Глубокое обучение Видео
10
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии