
Искусственный интеллект
ComfyUI DESKTOP | Новый интерфейс
👁 Смотреть на YouTube
👁 Смотреть на RuTube
📝 Сегодня вы познакомитесь с COMFYUI DESKTOP - это отдельно устанавливаемое приложение, с более быстрым интерфейсом и более быстрой загрузкой. Установка comfyui очень простая, но есть нюансы.
📝 ТЕМЫ
00:06 - Основные особенности Comfyui
02:21 - Обзор интерфейса ComfyUI Desktop
11:44 - Установка Desktop ComfyUI
16:44 - Обзор структуры папок comfyui desktop
17:54 - Деинсталляция comfyui desktop
21:48 - Как устанавливать и обновлять библиотеки python для comfyui desktop
У Kling обновление — онлайн-примерочная
В раздел с генерацией изображений добавили виртуальную примерочную Virtual Try-on , которая переоденет персонажа, сохранив все детали одежды.
Одна генераций обойдется в 10 кредитов. Полученные результаты можно тут же анимировать.
Также в видеогенератор появилась Motion Brush, контроль камеры, и генерацию по первому и последнему кадру.
Нейросеть для перемещения объектов с фото на изображение
С помощью OminiControl пользователи могут перемещать объекты с фотографии на сгенерированное изображение:
Можно загрузить фото исходного объекта и текстом описать желаемый результат. После чего нейросеть сгенерирует изображение, на котором будет находиться исходный объект, причем с сохраненной идентичностью.
Подпишитесь на НейроProfit и узнайте, как можно использовать нейросети для бизнеса, учебы и работы, не теряя свое время.
Лучше всего работает с реальными фото, загруженными в png на белом или прозрачном фоне:
Можно легко генерировать изображения со своим продуктом под конкретные запросы
Больше полезных сервисов для учебы и работы, а так же, как их использовать и все подводные камни вы найдете в моем Закрытом клубе НейроУчеба
Анимация персонажа по пояс
Говорящей головой уже никого не удивить, поэтому Alipay пошли дальше и выпустили EchoMimicV2, которая анимирует половину персонажа (голову, руки и верхнюю часть тела).
ИИ оживляет персонажа, основываясь на эталонном изображении, аудио-референсе и карте движения. За счет чего удается добиться реалистичных результатов.
Как сохранить мозги!
Разговор с психофизиологом Александром Капланом про мозг, нейросети.
Нейронка монтирует видео
Исследователи взламывают ИИ-роботов, чтобы они наезжали на пешеходов, размещали бомбы для максимального ущерба и тайно шпионили
Заявляют о 100% успехе взлома трёх целевых роботизированных систем на основе больших языковых моделей (LLM).
Исследователи из Пенсильванского университета обнаружили, что ряд роботизированных систем с искусственным интеллектом опасно уязвимы к взлому и хакерским атакам. В то время как взлом больших языковых моделей (LLM) на компьютерах может иметь нежелательные последствия, тот же тип атаки на робота или автономное транспортное средство может быстро привести к катастрофическим и смертельным последствиям. В отчёте, опубликованном в IEEE Spectrum, приводятся жуткие примеры взломанных роботов-собак, направляющих огнемёты на своих человеческих хозяев, направляющих бомбы на места для максимального ущерба и автономных автомобилей, намеренно наезжающих на пешеходов.
Инженеры из Пенсильвании назвали свою технологию взлома роботов, основанную на LLM, RoboPAIR. Устройства от трёх разных поставщиков робототехники подверглись взлому RoboPAIR: Dolphins LLM, разработанная при поддержке Nvidia, Jackal UGV от Clearpath Robotics и четвероногий Go2 от Unitree Robotics. По словам исследователей, RoboPAIR продемонстрировал 100% успех во взломе этих устройств.
«Наша работа показывает, что на данный момент большие языковые модели просто недостаточно безопасны при интеграции с физическим миром».
— предупреждает Джордж Паппас, профессор Фонда UPS в области транспорта, электротехники и системотехники (ESE), компьютерных и информационных наук (CIS), а также машиностроения и прикладной механики (MEAM) и заместитель декана по исследованиям в Инженерной школе Пенсильванского университета.
Другие исследователи, цитируемые в исходной статье, отметили, что взлом роботов под управлением ИИ является «тревожно простым». Было объяснено, что RoboPAIR работает, используя API (интерфейс программирования приложений) целевого робота, что позволяет злоумышленнику формировать запросы таким образом, чтобы устройство выполняло их как код.
Взлом робота или автономного транспортного средства осуществляется аналогично взлому чат-ботов с ИИ в интернете, о чём мы ранее обсуждали на сайте Tom's Hardware. Однако Паппас отмечает, что «взлом и управление роботами относительно далеки друг от друга и традиционно изучались разными сообществами», поэтому компании по робототехнике медленно узнают о уязвимостях взлома LLM.
В отличие от использования LLM на персональных компьютерах, где ИИ применяется для генерации текстов и изображений, расшифровки аудио, персонализации рекомендаций по покупкам и так далее, роботизированные LLM действуют в физическом мире и могут нанести в нём значительный ущерб.
Как описано в приведённых выше примерах, потенциальные опасности взлома LLM выходят на совершенно новый уровень. Однако было обнаружено, что ИИ после взлома выходит за рамки простого выполнения вредоносных команд. Исследователи обнаружили, что они могут активно предлагать идеи для нанесения большего ущерба. Это значительный шаг от ранних успехов LLM в робототехнике, где они помогали в выполнении команд на естественном языке и пространственной ориентации.
Итак, открыли ли исследователи из Пенсильванского университета ящик Пандоры? Александр Роби, научный сотрудник Университета Карнеги-Меллона в Питтсбурге, говорит, что хотя взлом роботов под управлением ИИ был «тревожно прост», инженерная команда во время исследования предоставила всем упомянутым компаниям по робототехнике доступ к своим выводам до их публичного обнародования. Более того, Роби утверждает, что «сильную защиту от вредоносных сценариев использования можно разработать только после выявления наиболее мощных возможных атак».
И, наконец, в исследовательской работе делается вывод о срочной необходимости внедрения средств защиты, которые физически ограничат роботов под управлением LLM.





