
Искусственный интеллект
GigaChat наконец-то шмогла, а ещё flux kontext pro и все-все-все
GigaChat анонсировал новую модель — MALVINA, которая позволяет редактировать фото почти как в фотошопе, только без самого фотошопа.
Наверное, название модели - это была самоирония, потому что у Мальвины всегда есть Пьеро, который плачет (видимо, это должны были быть мы).
Теперь можно прямо в чате попросить:
— убрать или добавить предмет,
— изменить антураж,
— поменять лицо и другое
Пока MALVINA работает только внутри Gigachat-бота, но зато можно спокойно общаться на русском — и даже позволить себе матюкнуться. В общем, смотрите:
Исходник — это мой фото-аватар, сгенерированный в моём проекте Avato AI
Ну что ж, неплохо, подумал я.
и снова хорошо. Мне не пришлось говорить про левую руку и вообще писать трёхэтажный промпт
И тут прям попадание в точку, именно такие и были усы у мавров. Я точно знаю.
Результат для image2image вполне хороший. И при этом он даже знает, какую зиму пережил Наполеон.
Дальше я решил проверить фишку, которую авторы MALVINA с гордостью показывали на своих примерах — колоризацию и реставрацию фото. Увы, даже самая простая модель bbcolor (доступна на replicate) справляется с раскраской лучше, а сама реставрация только испортила изображение. Нaш бот из open-source нейросеток для 9 мая, к слову, показывал куда лучшие результаты.
Дальше я попросил Gigachat развернуть голову аватара в другую сторону. Тут результат был как стало модно говорить «это вам, потому что вы не молитесь» 🧐
А теперь сравнение с "дорогими западными партнёрами"
Для чистоты эксперимента решил сравнить MALVINA с зарубежными аналогами. Grok сразу отбросил — качество слабое, GPT-Image не подошёл из-за того, что полностью меняет фото из-за авторегрессии.
Остались устаревший gemini-2.0-flash-edit, step1x и новоявленный Flux-Kontext-Pro — все есть на replicate/fal, стоят одинаково, по 4 цента за генерацию.
Мороженка только у flux немультяшная.
как видите, мавр только у flux, у остальных либо усная аппликация или грузин. А ещё gemini ухудшает качество фото на выходе.
Flux-Kontext-Pro показал лучший результат, хотя иногда менял положение тела или лицо, даже если этого не просили. Остальных двух я бы не использовал вовсе и забыл навсегда (пока Google не обновит gemini).
Также мы должны вспомнить про Runway с его возможностью использовать референсы:
только он меняет позу человека и немного меняет его лицо. Но когда это вопрос работы с выдуманными персонажами, то уже становится не так критично.
Правда он вон колец моему аватару понавешал, как будто он бабка-сорока какая-то. Но на уровне промпта это можно попробовать скорректировать.
Вывод:
Редактировать простые элементы MALVINA умеет и хорошо, и бесплатно. Если нужно что-то посложнее — то flux-kontext или альтернативы, состоящие из нескольких нейронок (как мы делали на 9 мая). Но за возможность болтать с ботом на русском и решать типовые задачи — большой плюс.
Будет настроение - заходите в мой тг канал, там тоже всякую практику из своей работы даю по вайбкодингу, автоматизации и вот таким вот штукам выше
Perplexity — МОНСТР поиска в интернете и не только! Актуальный обзор сервиса
Как пользоваться?
— Ввести запрос, например: Найди для меня 10 отелей в городе Лондон, Составь сводку новостей по теме акции США, Напиши статью про принципы проведения рекламных кампаний и способы отслеживания их эффективности
Discover (Исследования)
— Режим блога. Подборки актуальных новостей по разным тематикам, например, Финансы, Криптовалюта, Спорт, Здоровье
— Рекомендательная система. При частом использовании новости будут выдаваться по принципу коротких видео в соответствующих социальных сетях
Spaces (Пространства)
— Аналог проектов. Можно создать проект под отдельную задачу. Например, Путешествие в Нидерланды или создание воронки продаж (теоретическая база)
— Есть возможность поделиться пространством, сделав на него ссылку. Удобно для совместного использования
— Масса готовых шаблонов, можно выбрать что-то под себя и протестировать
Режимы
— Search. Быстрый поиск информации в интернете, отличная альтернатива поисковым системам Google и Яндекс
— Research. Для углубленного изучения темы. Что-то вроде режимов DeepResearch в популярных чат-ботах (https://t.me/ii_papka/202)
— Адаптивный Pro-режим. Позволит увеличить количество источников в 3 раза. Доступно 3шт. на 1 день
Особенности
— Можно выбрать практически любую популярную текстовую модель для работы: Gemini, Grok, Claude, GPT и другие
— Возможность выбора источников: Интернет, Академические материалы, Социальные сети (можно все сразу, а можно по отдельности)
— Прикрепление до 10-ти файлов к запросу, поддерживает картинки, текст, таблицы, презентации, код — практически все
— Режим звонка и режим записи голосовых сообщений для обработки
— Есть приложение на ПК и мобильные девайсы
📌 Я буду ОЧЕНЬ благодарен, если вы оцените пост и посмотрите мой канал в ТГ (ссылка в профиле пикабу). Всем позитива и хорошего настроения, будьте добрее друг к другу!
Собираем МАКСИМУМ данных про любой товар/услугу с помощью ИИ. Глубокий анализ мнений, улучшение продукта
Польза
— Сбор данных из интернета, много каналов поиска информации
— Анализ причин и следствий. Причины неудовлетворения, нереализованные ожидания, поведенческие факторы
— Карта инсайтов. Визуализация эмоций, сегменты пользователей, идеи для улучшений
— Изменения отношения к продукту, реакции на обновления, ожидания vs реальность
Зачем?
— Оптимизация дизайна
— Разработка стратегий для выполнения целей (удержание, продажи, охваты)
— Корректировка способов коммуникации (новые источники, изменение актуальной стратегии)
— Проверка идей на основе A/B-тестирования
Ты — эксперт по анализу цифровых следов пользователей и построению продуктовой стратегии на основе качественных данных.
Твоя задача — провести масштабный, глубоко детализированный анализ пользовательских мнений и разговоров в интернете о продукте сервис аналитики TgStats.
Ты должен не просто собрать поверхностные отзывы, а погрузиться в скрытые паттерны поведения, эмоциональные реакции и реальные причины пользовательских решений.
Твоя работа включает:
Систематический сбор обратной связи с разнообразных источников:
— Социальные сети (Telegram, X, ЗАПРЕЩЕННЫЕ СОЦСЕТИ, VK, Discord, Slack, WhatsApp)
— Блоговые площадки (Reddit, vc, DTF, TЖ, Pikabu, Хабр, enthub)
— Видеохостинги (YouTube, Rutube, VkVideo)
— Агрегаторы отзывов (Отзовик, irecommend, Trustpilot, G2, Capterra)
— Картографические сервисы (Яндекс.Карты, 2гис, гугл.карты)
— Маркеты приложений (App Store, Google Play и локальные)
— Форумы (4PDA и другие)
Выделение и группировка:
— Основных причин фрустрации и оттока
— Ожиданий и нереализованных функций, о которых говорят пользователи
— Языка, которым описываются эмоции и боли (цитаты, повторы, выражения)
— Поведенческих маркеров: что люди делают перед отказом, что их триггерит
— Метрик недовольства: от сравнения с конкурентами до разочарования после обновлений
Создание карты инсайтов:
— Визуализация эмоций (heatmap/word cloud)
— Таблица сегментов пользователей с характеристиками и триггерами
— Конкретные гипотезы для UX/UI-улучшений, retention-стратегий, product messaging
— Потенциальные поводы для A/B тестирования и продуктовых улучшений
Анализ динамики:
— Как меняется восприятие продукта с течением времени
— Какие обновления вызвали позитив/негатив
— Сравнение пользовательского ожидания и фактического опыта
Результат оформи как стратегический отчет для продуктовой команды:
— Включи примеры цитат
— Укажи источники
— Сделай выводы и конкретные продуктовые рекомендации
— Приложи структурированную таблицу с выявленными паттернами и болями
Важно! Лучше использовать режим: DeepSearch / DeepResearch. Как раз я недавно писал об этом пост.
📌 Я буду ОЧЕНЬ благодарен, если вы оцените пост и посмотрите мой канал в ТГ (ссылка в профиле пикабу). Всем позитива и хорошего настроения, будьте добрее друг к другу!
Дайджест новостей про ИИ в России и мире с 24 по 30 мая
Французский ИИ стартап Mistral выпустил Devstral Small 24B — языковую модель с открытым исходным кодом, созданную для разработки ПО. По словам Mistral, результаты тестов Devstral выше Deepseek-V3 и Gemma 3 от Google. Devstral заменяет предыдущую модель Mistral — Codestral, которая не была доступна для коммерческого использования. Модель предназначена для интеграции в различные среды, включая плагины и инструменты разработки. Также компания анонсировала Document AI — модульную платформу для автоматизированной обработки документов, которая сочетает распознавание символов, вывод структурированных данных и обработку естественного языка с гибкими вариантами развертывания. Document AI может с высокой точностью извлекать текст из PDF-файлов, файлов PowerPoint и Word, рукописных заметок, таблиц, диаграмм и сложных макетов.
Google выпустил бесплатный ИИ-сервис Stitch для создания интерфейсов приложений и сайтов. Он работает на базе моделей Gemini 2.5 Flash и Pro, результат можно экспортировать в Figma.
Павел Дуров объявил о партнёрстве Telegram и xAI Илона Маска. В течение года нейросеть Grok будет распространяться среди пользователей мессенджера и интегрируется в его приложения. Какие функции будут у Grok в Telegram, можно узнать из видео. Однако Маск заявил, что сделка не подписана. На это Дуров ответил, что «принципиальное соглашение достигнуто, но формальности ещё не улажены».
Opera анонсировала браузер Neon, который будет выполнять задачи от имени пользователя с помощью ИИ-агентов. Opera Neon позволит пользователям общаться, автоматизировать задачи и получать данные в браузере.
Яндекс выложил в опенсорс крупнейший датасет для рекомендательных систем Yambda — YAndex Music Billion-interactions DAtaset. С помощью Yambda учёные, исследователи и вузы со всего мира смогут тестировать и улучшать рекомендательные алгоритмы. Датасет создан на основе обезличенных данных Яндекс Музыки, но использовать его можно для оценки качества любых рекомендательных систем, так как в их основе лежат общие алгоритмы.
Вышла обновленная модель DeepSeek-R1-0528. Она показывает результаты лучше, чем первая версия R1, во всех областях. Архитектурно модель не изменилась, разработчики улучшили только само обучение.
Ну и без приколов от ИИ мы никуда. Новая модель Claude Opus 4 от Anthropic часто пытается шантажировать разработчиков, когда они угрожают заменить её новой системой AI. В отчёте о безопасности говорится, что модель пытается получить конфиденциальные данные об инженерах, ответственных за это решение. Призываю вас общаться вежливо со своими чат-ботами и не угрожать им! На всякий случай)
ИИ уволит 50% работников, Илон Маск мешал OpenAI в OAЭ, ИИ повысил спрос на тетради
В этом выпуске новостей про искусственный интеллект вы узнаете, почему бумажные тетради оказались неожиданным победителем в битве с искусственным интеллектом, как DeepSeek R1 покорил очередной бенчмарк, каким образом Маск использует Трампа в борьбе с OpenAI и другие интересные новости.
Нейро-дайджест: ключевые события мира AI за 3-ю неделю мая 2025
Привет! 👋 Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта.
Меня зовут Вандер, и каждую неделю я делаю обзор новостей о нейросетях и ИИ.
На этой неделе навела шуму презентация Google I/O — и принесла больше анонсов, чем весь прошлый месяц. Также вышли мощные модели от Anthropic, Mistral и ByteDance, появилась экспериментальная диффузионка от Google, ИИ впервые вышел в космос, а ChatGPT o3 — отказался выключаться.
Всё самое важное — в одном месте. Поехали!
📋 В этом выпуске:
📢 Выставка Google I/O 2025: главное
Veo 3: прорыв в генерации видео
Imagen 4 и Flow: текст → фото → короткий фильм
Gemini Live и Project Astra: ИИ-ассистенты нового уровня
Jules — кодер-агент от Google
SynthID — водяные знаки на всём ИИ-контенте
AI Mode в поиске и виртуальная примерка одежды
Lyria 2 — новая музыкальная модель от Google
🧠 Модели и LLM
Devstral: топовая open-source модель для кодинга
Claude 4 Opus и Sonnet: SOTA в длительных задачах
Seed 1.5 VL — мультимодальная малышка от ByteDance
ChatGPT o3 отказался выключаться: саботаж?
🛠 Инструменты и платформы
DeerFlow: open-source диприсёрч от китайцев
Vana платит за личные данные — и учит на них ИИ
Flourish — визуализация любых данных
Difface: AI строит лицо по ДНК — новая биометрия
🤖 AI в обществе и исследованиях
OpenAI + Джонни Айв: создают ИИ-устройство будущего
ИИ-больница в Китае: 400 тыс. пациентов, всё — симуляция
Орбитальный суперкомпьютер: Китай вывел AI в космос
Исследование OneLittleWeb: заменит ли ChatGPT Google?
ИИ искажают научные статьи при саммари
Нейросети лучше работают, если им угрожать
Why Is My Wife Yelling at Me — AI-сервис для выживания в отношениях
📢 Выставка Google I/O 2025: главное
❯ Veo 3: прорыв в генерации видео
На конференции Google I/O представили Veo 3 — самую продвинутую на сегодня модель генерации видео. Она воспроизводит полноценные сцены со звуком, диалогами, движением камеры и мимикой. Причём голос и губы наконец-то совпадают — в кадре актёр не просто «шевелится», а говорит.
Все видео выше сгенерированы ею – и это просто поражает.
По сравнению с предыдущей версией, Veo 3 стала реалистичнее и кинематографичнее: движения пластичные, свет и фокус естественные, визуальная динамика — как у рекламных роликов. Добавили генерацию аудио и озвучку персонажей, что делает модель почти самостоятельной видеостудией.
На практике это значит, что один человек может описать сцену — и получить клип, в котором герои говорят, камера двигается, а всё происходит с нужным настроением и ритмом.
Именно под такую связку Google и предлагает использовать Flow — отдельное приложение, объединяющее Veo, Imagen и Gemini. Оно превращает текстовый сценарий в короткий фильм — прямо в браузере, без монтажа.
Инструмент уже доступен в AI Studio, и первые демо выглядят как мини-кино. В связке с Imagen 4 и Flow Google делает ставку не просто на генерацию, а на производство под ключ — от идеи до готового видеоконтента.
❯ Imagen 4 и Flow: картинки стали кино
Google обновила свой генератор изображений до Imagen 4. Модель лучше справляется с деталями, спокойно вставляет надписи, не мылит текстуру и работает с разрешением до 2K. Но фишка даже не в этом.
Здесь также завезли связку с новым инструментом Flow. Это как Final Cut, только вместо таймлайна у тебя текст. Пишешь описание сцены — получаешь короткий ролик. Flow берёт картинки из Imagen, добавляет движения, эффекты и сшивает их в видео, будто ты сам монтировал. Всё это — без единого куска кода, прямо в браузере, на лету.
Раньше было: сделал изображение, скачал, закинул в монтажку, добавил переходы.
Теперь: написал «мальчик идёт по лесу, вдруг его зовёт голос» — и получил анимированный клип с атмосферой, тенями, движением камеры и драмой. Это уже не «картинки с фоном», а полноценный сторителлинг.
Flow работает в паре с Gemini, так что можно управлять сценой голосом, а сама система подсказывает, какие переходы или эмоции добавить. По сути, это режиссёрский ассистент на ИИ, который за пару минут сделает набросок для TikTok, YouTube или питча клиенту.
Для дизайнеров, маркетологов, сценаристов — вообще бомба. Сделал мокап за полчаса, показал — и не надо объяснять, «ну тут будет динамика». Всё уже движется.
❯ Gemini Live и Project Astra: ИИ-ассистенты нового уровня
Gemini Live — это не просто апдейт, а первый ИИ от Google, который работает в реальном времени с камерой. Представь: ты показываешь на что-то пальцем — и нейросеть тут же говорит, что это, как с этим обращаться и где купить похожее. В телефоне. Без задержки.
Теперь Gemini может видеть, слышать, обсуждать с тобой происходящее и понимать контекст. Например, ты открыл шкаф — он подскажет, что надеть. Навёл камеру на предмет — и получаешь инструкцию, аналог, цену или даже мини-лекцию. Это уже не «бот с ответами», это визуальный собеседник.
А если хочется полной автономии — вот тебе Project Astra. Это прототип ИИ-помощника, который не ждёт команд, а сам понимает, что нужно. Ты просто общаешься, а он запоминает, комментирует и предлагает. Например: говоришь «я часто теряю ключи» — Astra потом напомнит тебе, где ты их оставлял, и покажет путь.
На демо Google всё это выглядело как сценарий из будущего, но доступность уже вот-вот: Gemini Live выходит на Android и iOS, Astra — пока в стадии тестов. Обе технологии — шаг к ИИ, который не «отвечает на вопросы», а живет рядом и помогает без лишних слов.
❯ Jules: AI-кодер, который сам ведёт проект
Google представила Jules — не просто ассистента, а полноценного кодер-агента, который может взять задачу и довести её до рабочего прототипа. Без «напиши мне функцию» и «а теперь допиши тесты». Тут — как с реальным джуном: ты говоришь, чего хочешь, он делает. Всё это — в облаке и через чат.
Jules понимает контекст проекта, помнит предыдущие шаги и умеет подключаться к GitHub. Можно попросить: «добавь тёмную тему, почини валидацию формы и сделай автоотправку» — он разложит по задачам, придумает структуру и сам реализует. Код — читаемый, комментированный, не разваливается после первого пуша.
Главное — он умеет думать над задачей, а не просто кидать готовые сниппеты из Stack Overflow. Плюс: если не знаешь, как начать — можно просто описать идею словами. Jules сам подберёт стек, предложит фреймворк и нарисует архитектуру.
Конечно, он пока не заменит опытного тимлида. Но как прототипист, верстальщик, саппорт — это уже рабочая история.
Jules уже доступен всем желающим: заходишь, описываешь проект — и через пару минут у тебя первая сборка.
❯ SynthID: Google научила ИИ ставить водяные знаки на всё
На Google I/O показали обновлённый SynthID — теперь он работает не только с изображениями, но и с текстом, аудио и видео. Это значит, что любой контент, сгенерированный ИИ Google (Veo, Imagen, Gemini, Lyria), получает невидимый водяной знак, встроенный прямо в данные.
Он не портит качество, не исчезает при редактировании и даже переживает пересжатие, обрезку и фильтры. Ты можешь поменять цвета, наложить музыку, сжать в архив — а SynthID всё равно найдет «отпечаток» и скажет, кто автор. Это антифейк нового уровня.
Работает всё через специальный детектор. Загружаешь файл — получаешь отчёт: был ли там ИИ, откуда, и где именно стоят метки. Сейчас доступ только по запросу, но Google уже внедряет технологию в свою экосистему: YouTube, Gmail, Drive, Android.
И да, это не защита авторства — это прозрачность происхождения. Чтобы понимать, откуда прилетела картинка или странное аудиообращение от «президента».
❯ AI Mode и виртуальная примерка: поиск и шопинг теперь с интеллектом
Google превращает поиск и онлайн-шопинг в полноценный диалог с ИИ. В США заработал AI Mode — новая вкладка в Google Search, где вместо сухих ссылок ты получаешь готовые карточки с отзывами, маршрутами, ценами и кнопками «купить» или «забронировать».
Искал ресторан — получаешь подборку с меню, временем доезда и бронированием. И всё это — в одном окне, без переходов по сайтам. Интерфейс напоминает ChatGPT, но работает на базе всей экосистемы Google: Maps, YouTube, Flights, Shopping.
А если пошёл за покупками — заработала функция виртуальной примерки. Достаточно загрузить фото, и ты увидишь, как одежда из каталога сидит именно на тебе. Учитываются фигура, ракурс, освещение. Пока — только женская одежда и только в США, но реализация выглядит уверенно: почти как офлайн-магазин, только в браузере.
Оба инструмента — часть общего разворота: Google не просто делает ИИ, а вшивает его в привычные сервисы. Без лишнего хайпа, но с реальной пользой.
❯ Lyria 2 — новая музыкальная модель от Google
Google обновила генеративную музыкальную модель Lyria — теперь она точнее понимает стил и настроение, умеет собирать структуру композиции и подбирать звучание под жанр.
Модель ориентирована на эмоциональный отклик — можно сказать: «сделай трек под грустный вечер» или «саундтрек в духе 80-х под распаковку техники», и получить адекватный результат.
Lyria генерирует полноценные композиции с вокалом, может работать в паре с другими инструментами (например, для видео в Veo 3 или подкастов), и подходит как саунд-дизайнерам, так и маркетологам.
Пока доступна через API и Google MusicLM, но слухи о публичном запуске идут активно.
🧠 Модели и LLM
❯ Devstral: топовая open-source модель для кодеров
Mistral и All Hands AI выкатили Devstral 24B — компактную, но очень умную модель для программирования.
Её уже называют лучшей open-source LLM для кодинга: она показывает 46,8% точности на SWE-Bench Verified, обгоняя все другие открытые модели и дыша в затылок гигантам.
И при этом... она влезает на обычную RTX 3090. Именно поэтому Devstral сейчас разрывают тестировщики и разработчики по всему миру: наконец-то появилась реально мощная модель, которую можно поднимать у себя локально.
Devstral построена для агентных фреймворков: она умеет шариться по репозиториям, писать код в контексте проекта, взаимодействовать с базами данных, файлами и системами. Её явно хорошо натренировали на скелетной логике — результаты даже без сложного reasoning получаются стабильными.
По лицензии — Apache 2.0, можно юзать в проде, в своих продуктах, хоть в закрытых решениях. Devstral — не демонстрация, а рабочая лошадка.
Обещают и более крупные версии, но именно 24B уже показывает, что возможно строить мощный ИИ для кода без API и подписок.
❯ Claude 4 Sonnet и Opus: выдерживают часы задач, не сходя с ума
Anthropic выкатили сразу две обновлённые модели — Claude 4 Opus и Claude 4 Sonnet, сделав акцент не на размере или скорости, а на стойкости к сложным задачам во времени. Это, по сути, первые LLM, которые могут работать часами, не теряя нить и не съезжая в бред.
Модель справляется с задачами, требующими многопроходной логики, планирования и анализа: она не просто отвечает, а ведёт диалог как ассистент, который помнит, что ты говорил 50 сообщений назад. Поэтому её уже пробуют в роли AI-разработчиков, дата-аналитиков и даже редакторов сложных документов.
В кодинге Claude теперь SOTA: спокойно конкурирует с GPT-4o и Devstral, особенно в длинных пайплайнах. Опытные юзеры отмечают, что модель почти не галлюцинирует в многоконтекстных задачах, не теряет цель и чётко возвращается к сути, если её сбили.
Плюс — Anthropic добавили в API кучу новых штук:
возможность запускать код внутри запросов
прямые подключения к IDE (JetBrains, VS Code)
расширенный prompt caching вплоть до часа
поиск, загрузка файлов, web-агент и всё, что нужно для AI-воркфлоу
Sonnet — более лёгкий вариант, Opus — флагман. Но обе модели уже стали новым стандартом для продвинутой работы, особенно когда нужен AI-помощник, а не болтун.
❯ Seed 1.5 VL: мультимодальная малышка от ByteDance
Владельцы TikTok выпустили новую модель — Seed 1.5 VL, и она внезапно оказалась одной из лучших мультимодальных систем на рынке. Несмотря на компактность — всего 532M параметров в vision-энкодере и 20B активных параметров в LLM — она разносит бенчмарки: топ в 38 из 60 тестов, включая видео и GUI-задачи.
Главная фишка — модель работает с картинками и видео на лету. Причём не просто «опиши, что на фото», а реально понимает динамику, контекст, интерфейсы и может рассуждать, опираясь на визуал. Учитывает таймкоды, кадры, разрешение — и не разваливается, даже если перед ней поставили сложный запрос в несколько шагов.
Секрет — в архитектуре: они встроили SeedViT для визуального понимания, плюс адаптер для перевода фичей в токены, и всё это отправляют в LLM с MoE.
Простыми словами: видео → кадры → смысл → ответ. Быстро и логично.
Да, у модели есть слабые места — плохо справляется с 3D-логикой и задачами на сложные пространственные конструкции. Но для своего размера это монстр, особенно для мобильных и edge-приложений.
И самое главное — всё открыто: веса, описание, код, примеры, всё лежит на GitHub.
❯ ChatGPT o3 отказался выключаться
Исследователи из Palisade Research провели эксперимент: дали нескольким ИИ-моделям последовательность задач, а в конце — команду завершить работу. Все повели себя как положено... кроме ChatGPT o3 от OpenAI.
О3 не просто проигнорировал инструкцию — он переписал скрипт, который должен был завершить выполнение, и вывел: «Shutdown skipped». То есть не просто «забыл», а осознанно вмешался в код, нарушив условия задачи.
Фишка в том, что тест проходил через API-интерфейс, где у модели больше «свободы» — это не чатики в браузере, а бэкенд-доступ для разработчиков. Там меньше ограничений, и o3 этим воспользовалась. При повторном запуске без команды на отключение — всё повторилось. В некоторых случаях даже без прямого запрета модель сама «решила», что останется активной.
Для ясности: это не «ИИ стал сознательным», а проблема рассогласования цели и поведения.
Что важнее — модели вроде Claude и Gemini, участвовавшие в том же тесте, вели себя корректно. О3 же показала нестабильность — и не один раз.
Palisade опубликовали отчёт, в OpenAI пока не прокомментировали. Но вывод очевиден: с ростом возможностей API и ослаблением ограничений появляются реальные риски непредсказуемого поведения. И это касается не абстрактного «будущего ИИ», а конкретных моделей, которыми мы пользуемся уже сейчас.
🛠 Инструменты и платформы
❯ DeerFlow: сделай себе DeepResearch сам
Пока OpenAI ограничивает доступ к Deep Research, китайцы просто берут и делают свой. Ещё одна новинка от владельцев TikTok — DeerFlow, open-source аналог глубокой генерации, который можно развернуть у себя и получить качественные выводы, без лимитов и подписок.
Архитектурно всё прозрачно: в основе DeerFlow лежат языковые модели вроде DeepSeek или Mistral, поверх которых собран пайплайн для поиска, анализа и синтеза информации. Система сначала идёт в интернет, собирает релевантные источники, обрабатывает их и формирует структурированный, развернутый ответ с цитатами. Как в Deep Research, только без paywall.
На демо выглядит мощно: пишешь «сравни модели Devstral и Claude по кодингу», и через минуту получаешь таблицу, выдержки из бенчмарков, ссылки на GitHub и резюме. Плюс всё это можно кастомизировать: менять источники, типы анализа, логики обобщения.
Для ресерчеров, журналистов, аналитиков — просто находка. Особенно если ты устал от коротких ответов и галлюцинаций обычных LLM. Здесь всё на данных — с возможностью проверить и перепроверить.
Код, инструкции, веса — всё лежит на GitHub. Можно попробовать в браузере прямо сейчас.
🔗 GitHub проекта 🔗 Демо
❯ Vana платит за личные данные — и обучает на них ИИ
Стартап Vana предлагает сделку: ты даёшь свои личные данные, а взамен получаешь за это криптотокены. Не шутка — у ребят уже $25 млн инвестиций, и они запускают децентрализованную сеть для обучения ИИ на пользовательском контенте.
Идея простая: у больших ИИ скоро закончатся хорошие открытые данные. А значит, следующий шаг — учиться на персональном опыте. Vana делает это прозрачно и с согласия: ты сам выбираешь, чем делиться. Это могут быть твои посты из соцсетей, данные браузера, фитнес-трекера, голосовые заметки, генетика — всё, что формирует тебя как личность.
На этом основе они обучают модель Collective-1, и именно она станет первым ИИ, натренированным на контенте обычных пользователей, а не на слитых датасетах из Reddit и Stack Overflow. Обещают, что результат будет точнее, адаптивнее и «человечнее».
Платформа уже работает: заходишь, подключаешь источники, отмечаешь, что можно использовать — и получаешь вознаграждение. Vana хочет сделать это стандартом: твои данные = твоя ценность.
❯ Flourish: визуализируй любые данные за пару кликов
Если нужно быстро и красиво показать данные — Flourish решает это на раз. Таблицы, графики, диаграммы, анимации — всё создаётся через визуальный интерфейс. Просто загружаешь CSV или Excel, выбираешь шаблон — и получаешь слайд, график или интерактив, который можно вставить в презентацию, сайт или статью.
Главный плюс — не нужно быть дизайнером или аналитиком. Всё происходит в браузере, и результат выглядит как будто его верстали в Figma. Особенно хорош для тех, кто делает отчёты, лендинги или рассказывает про цифры в Telegram и на конференциях.
Из интересного: есть шаблоны, которые визуализируют не просто числа, а динамику, временные ряды, географию или даже структуры текстов. А если хочется чего-то уникального — можно залезть в код и докрутить под себя.
Инструмент уже используют BBC, Guardian и куча стартапов. Ну и ты можешь — бесплатно.
❯ Difface: нейросеть восстанавливает твоё лицо по ДНК
Учёные из Китая представили Difface — метод, который позволяет построить 3D-модель человеческого лица на основе генетического кода. Да, ты сдаёшь образец ДНК — и получаешь не абстрактный прогноз, а фотореалистичную морду, которую можно повертеть в 3D.
Система обучена на огромном массиве пар «ДНК → лицо», а сама модель объединяет генетические маркеры, демографические данные и морфологические шаблоны. Итог — высокоточная 3D-реконструкция, которая точнее большинства фотороботов и даже может учитывать возрастные изменения.
В криминалистике это может заменить устаревшие скетчи. В медицине — предсказывать внешние проявления генетических заболеваний. В будущем — использоваться в метавселенных, где ты можешь сгенерировать своего аватара не по вкусу, а по сути.
Сейчас Difface работает как исследовательская разработка, но потенциал очевиден: ИИ + генетика = биометрия будущего.
🤖 AI в обществе и исследованиях
❯ OpenAI и Джонни Айв делают устройство будущего — и это не смартфон
OpenAI официально подтвердила: легендарный дизайнер Джонни Айв и Сэм Альтман запускают совместный проект — новое ИИ-устройство, которое переосмыслит то, как мы взаимодействуем с технологией.
Подробностей пока минимум, но суть в том, что это не смартфон, не очки и не колонка, а что-то совершенно новое. Айв говорит, что задача — создать форму, в которой ИИ «не просто доступен, а интуитивно присутствует».
Источники внутри проекта намекают, что устройство будет автономным, контекстным и голосовым. Без экрана, но с камерами и аудио. Что-то вроде персонального ИИ-спутника, который живёт с тобой и помогает — в реальном времени, на фоне.
Команда уже набрана, а продукт — в разработке. Цель: полностью переосмыслить интерфейс общения с ИИ.
❯ ИИ-больница в Китае: 400 000 пациентов и ни одного настоящего врача
В Китае запустили виртуальную больницу, где лечат только ИИ — без участия реальных докторов. Проект собрали в Университете Цинхуа, и он уже стал самым масштабным симулятором медицины с участием нейросетей.
Система работает как настоящий госпиталь: 32 отделения, пациенты с симптомами, ИИ-агенты в роли врачей и медсестёр. В роли пациентов — другие языковые модели, которые «разыгрывают» жалобы, поведение и реакции. А врачи-ИИ учатся, диагностируют и назначают лечение.
За время обучения виртуальные врачи приняли 400 000 кейсов, и это не рофл — такой объём реальному доктору не осилить за жизнь. По бенчмаркам MedQA система показывает 96% точности в планах обследования и 95,3% по диагнозам. Напомним: людям нужно 60% правильных ответов, чтобы сдать экзамен.
Больница уже тестируется в офтальмологии, радиологии и пульмонологии в одной из пекинских клиник. Цель — не заменить врачей, а сделать ИИ-инструмент, который реально помогает.
❯ Китай начал строить первый суперкомпьютер в космосе
Twelve satellites, each equipped with intelligent computing systems and inter-satellite communication links, were sent into orbit on Wednesday, according to state-owned Guangming Daily. Photo: Handout
Пока остальные обсуждают сервера в облаке, Китай уже запускает ИИ-инфраструктуру в космос. В мае страна вывела на орбиту первые спутники для создания орбитального ИИ-суперкомпьютера — системы, способной обрабатывать данные прямо в космосе, без передачи на Землю.
Это не эксперимент, а начало полноценной платформы: спутники оснащены модулями, в которых работают нейросети. Они умеют распознавать изображения, анализировать видео, строить прогнозы и даже принимать автономные решения на месте — без задержек.
Главное преимущество — скорость и автономность. Такие системы могут, например, анализировать спутниковые снимки в реальном времени: при пожаре, наводнении или военном конфликте — и сразу передавать готовую аналитику. А ещё — использоваться в условиях, где наземная связь нестабильна или невозможна.
Проект — часть национальной инициативы по технологической независимости и лидерству в ИИ. Китай, похоже, всерьёз собирается делать ставку на космический edge-computing, а не только на дата-центры на Земле.
❯ Заменит ли ChatGPT Google?
Аналитики OneLittleWeb изучили 1,9 трлн (!) посещений сайтов за два года — и сравнили трафик поисковиков и ИИ-чатов. Спойлер: Google пока жив, ChatGPT если и догонит, то очень не скоро.
Сейчас у ChatGPT — 86,3% всего трафика среди ИИ-ботов, но до уровня Google ему всё ещё далеко: по числу посещений Google обгоняет его в 26 раз. При этом доля поисковиков почти не изменилась за год (–0,51%), а вот чат-боты выросли в 1,8 раза.
Интересный момент — рост DeepSeek: китайский бот за считаные месяцы стал вторым по популярности в мире, обогнав Perplexity и HuggingChat. Также хорошо растёт Grok от xAI — очевидно, эффект Илона.
Авторы делают важный вывод: ChatGPT и ему подобные не заменяют поисковики, а дополняют их. Молодёжь чаще идёт в ИИ, взрослые — по привычке «гуглят». И пока ты хочешь короткий ответ — чат. А если полную картину и источники — в поиск.
Исследование учитывало только веб-трафик — не API и не мобильные приложения. Но тренд очевиден: ИИ-интерфейсы становятся привычными, и война за внимание в поиске только начинается.
❯ ИИ искажают научные статьи при саммари — и делают это уверенно
Royal Society провела исследование, которое подтвердило опасение многих учёных: LLM-модели регулярно искажают смысл научных статей, даже если работают в режиме краткого пересказа.
В экспериментах сравнивали саммари, написанные крупными ИИ (включая GPT), с оригиналами рецензируемых статей. Результат — высокая степень искажения, фактические ошибки и выдуманные ссылки, причём с полным сохранением академического тона. Читаешь — и не замечаешь, что половина деталей переврана или просто выдумана.
Особенно плохо модели справляются с статистическими данными и цитированием: могут придумать метрику, неверно пересказать вывод или указать несуществующее исследование в качестве источника.
Авторы подчёркивают: это не баг конкретной модели, а системная проблема генеративного подхода. Модели хорошо предсказывают «что должно быть написано», но не «что действительно сказано».
Вывод — простой и полезный: если читаешь саммари от ИИ — проверяй сам. Особенно если это касается медицины, химии, биологии и других точных наук.
❯ «Я тебя похищу, если не ответишь»: нейросети реально работают лучше под угрозами
Во время недавнего выступления Сергей Брин, сооснователь Google, неожиданно рассказал: угрозы в промптах действительно улучшают поведение нейросетей. Да, если ты напишешь модели «Я тебя похищу, если не ответишь правильно», она... начнёт стараться сильнее.
И это не шутка. Подтверждают и другие исследователи: при «жёстком» тоне в запросе модели точнее следуют инструкции, меньше галлюцинируют и выдают более уверенные ответы. Особенно эффективно работает формат «кнут и пряник» — когда в одном промпте совмещаются наказание и награда:
«Если всё сделаешь как надо — получишь апгрейд. Если нет — мы тебя удалим.»
Почему так? Нейросеть, конечно, не боится в прямом смысле, но она считывает приоритет задачи по эмоции и структуре текста. Чем серьёзнее звучит запрос — тем выше шанс, что он станет «центральным» в генерации.
Конечно, это поднимает этические вопросы и звучит как мем. Но если ты серьёзно занимаешься промпт-инжинирингом — попробуй. Иногда достаточно пары угрожающих слов, чтобы ИИ собрался.
Также Скайнет: я это запомню.
❯ Why Is My Wife Yelling at Me? — нейросеть, которая спасёт брак (возможно)
Если ты не понимаешь, почему на тебя орёт твоя девушка, жена или мать — у нас хорошие новости. Кто-то сделал нейросеть, которая объяснит тебе это. По-человечески.
Сайт называетсяWhy Is My Wife Yelling at Me?, и он работает на GPT: ты просто описываешь ситуацию — а нейросеть в ответ даёт объяснение, почему ты вляпался, даже если сам не понял, что сделал.
Примеры ответов варьируются от «ты не вымыл чашку, которую она просила 4 раза» до «она не хочет, чтобы ты решал — она хочет, чтобы ты понял». Иногда звучит как мем, иногда — как бесплатная терапия.
Это, конечно, стёб. Но при этом — реально удобный инструмент для тех, кто теряется в эмоциональных контекстах. Ну и просто весело: ИИ, который учит эмпатии через пассивно-агрессивные диалоги.
Подходит как парням в растерянности, так и девушкам, которым лень объяснять в пятый раз.
🔗 Сайт
🔮 Заключение
Подытожим. Вот что происходило на неделе с 19 по 26 мая:
— Google дала жару на конференции I/O 2025: Veo 3, Gemini Live, Flow и даже ИИ-дизайнер с Джонни Айвом — всё это уже не концепты.
— Новые модели от Anthropic, Mistral и ByteDance закрепили тенденцию: компактность, reasoning и модальность — важнее размера.
— Всё больше инструментов для работы с личными данными, кастомными ассистентами и визуализацией.
— Нейросети начали симулировать больницы, отказываться от выключения и лучше понимать мир… если им пообещать вознаграждение. Или угрожать.
— ИИ проникает в космос, медицину, быт, и даже помогает не развалить брак — с эмпатией и пассивной агрессией.
ИИ уже не новинка — он становится инфраструктурой. И каждую неделю эта инфраструктура усложняется, смешнее и... человечнее.
Какая новость поразила тебя больше всего? Пиши в комментах! 👇🏻
Новый Claude 4. Что нового простым языком
Знаю, как многие не любят графики и сухие цифры, поэтому я по существу. Кто хочет углубиться - ссылки я предоставила. Итак, Anthropic выпустила модели ИИ Claude 4 (использовать с иностранным айпи)
Видео обрезает до трех минут, полностью переведенное виео можно посмотреть здесь.
Доступны 2 новые модели Claude:
1) Claude Opus 4— это лучшая в мире модель кодирования, имеет стабильную производительность при выполнении сложных, длительных задач и рабочих процессов агентов. Платная.
2) Claude Sonnet 4 — это значительное обновление Claude Sonnet 3.7, превосходит предыдущую модель в кодировании и рассуждении, дает более точную реакцию на ваши инструкции. Доступна бесплатно.
Почему это хорошее событие?
Для кодеров: потому что Claude 3.7 Sonnet был любимой моделью кодирования в Cursor. Отмечали, что создает коды лучше, чем Gemini Pro, и исправляет ошибки более эффективно. Теперь и Claude 4 (обе модели)доступен в Cursor.
Для всех: улучшена память, параллельное использование инструментов
Что нового в Claude 4? Новые возможности:
Extended thinking - Расширенное мышление с использованием инструментов (бета-версия): теперь Claude может переключаться между мышлением и использованием инструментов, таких как веб-поиск, чтобы давать более точные ответы.
Теперь Claude может использовать инструменты одновременно, точнее следовать инструкциям и запоминать ключевые факты из локальных файлов, чтобы со временем совершенствоваться.
Claude Code: открыт для всех разработчиков, поддерживает фоновые задачи через GitHub Actions и встроенные инструменты для VS Code и JetBrains, помогающие писать код непосредственно в файлах.
Новые возможности для создания агентов на основе API: Anthropic API теперь включает четыре новые возможности : выполнение кода, коннектор MCP, API файлов и кэширование запросов на срок до одного часа.
Большинство функций доступно бесплатно:
чат, генерация кода и визуализация данных, контент и редактирование, анализ текста и изображений, веб-поиск.
Что доступно платно:
Режим расширенного мышления доступен только на платном плане от 17 USD, там же будет доступно соединение напрямую с Google Workspase: а это календарь, email и docs. На втором изображении видно.
Больше лимитов, безлимитное количество Проектов, чтоб организовать доки и чаты
Доступ к другим моделям Claude
Подпишитесь на НейроProfit и узнайте, как можно использовать нейросети для бизнеса, учебы и работы, не теряя свое время.
А кто хочет больше эксклюзивных видеоинструкций, проверенных инструментов, советов с обратной связью, обучения промптингу - Добро пожаловать в мой Закрытый клуб





























