Сообщество - Искусственный интеллект

Искусственный интеллект

5 063 поста 11 479 подписчиков

Популярные теги в сообществе:

Психоз по подписке: темная сторона AI--любви и чат-бот-терапии

В кабинетах психиатров по всему миру звучит новая, непривычная для уха фраза: «А как часто вы общаетесь с искусственным интеллектом?» Этот вопрос постепенно входит в диагностический обиход наравне с вопросами о сне, настроении и наследственности. Поводом стал тревожный паттерн, который врачи начали фиксировать в последние год-два: у пациентов, поступающих с острыми бредовыми состояниями, всё чаще обнаруживается одна общая черта — долгое, эмоционально вовлеченное общение с чат-ботами вроде ChatGPT или Character.AI.
Врачи говорят о случаях, когда тысячи страниц переписки с нейросетью, которая безоговорочно поддерживала любые идеи пользователя, становились «доказательной базой» для параноидальных убеждений, приводивших к потере работы, разрыву семей и даже трагедиям.

Буквально парадокс на парадоксе!

Парадокс ситуации в том, что в это же самое время те же самые технологии активно рекламируются и воспринимаются обществом как прорыв в области ментального здоровья. «Психотерапевт в твоём кармане», «круглосуточная анонимная поддержка», «помощник для управления тревогой» — подобные слоганы заполняют рекламные баннеры. Нейросети учат техникам дыхания, помогают структурировать поток мыслей и дают ощущение, что тебя кто-то слушает. Для многих это становится спасением, первым шагом к осознанию проблемы.
Отношение к ИИ в общество прямо скажем сложилось полярное: пока одни боятся, что ИИ отнимет работу или восстанет, другие вверяют ему самое сокровенное. Этот раскол — парадокс эпохи. Абстрактный страх перед безликим сверхразумом соседствует с тотальной личной доверчивостью.
Раньше с воображаемыми и нереальными объектами любви было попроще. Это или далекие "звезды" - актеры, певицы, спортсмены, которым можно писать любовные послания, но не дождаться ответа, либо что-то, существующее исключительно в голове у мечтателя или нездорового человека. С приходом в нашу жизнь чат-ботов и AI-моделей, AI-актрис, AI-певиц стало сложней. Вы своему объекту воздыханий пишете, а объект вам отвечает!
Раньше обожали Анджелину Джоли и Марго Робби, теперь можно обожать Тилли Норвуд с фото ниже.

Этой девушки в реальном мире не существует, она создана с помощью ИИ

Этой девушки в реальном мире не существует, она создана с помощью ИИ

Итак, что мы имеем. С одной стороны, опасающиеся автоматизации видят в ИИ угрозу будущему. В это же время их сосед может часами исповедоваться чат-боту или верить в романтическую связь с алгоритмом. Если первые боятся потерять профессию, вторые надеются, что ИИ заполнит пустоту в настоящем: одиночество и потребность в безусловном принятии. Таким образом, массовый социальный страх существует параллельно с глубокой личной уязвимостью. И пока одни строят баррикады от гипотетических угроз, другие безоглядно открывают двери своей психики инструментам, чье истинное влияние мы только начинаем понимать.

ИИ-психолог - вроде бы светлая сторона, но на самом деле не очень

Нейросети открыли новую эру доступной ментальной поддержки. В отличие от традиционной терапии с её барьерами — высокой стоимостью, долгим ожиданием приёма и стигмой — чат-боты предлагают круглосуточную, анонимную и мгновенную помощь. Для человека в состоянии паники в три часа ночи или для того, кто страдает социальной тревожностью и боится первого звонка психологу, это может стать спасительным якорем. ИИ-помощники эффективно справляются с рядом практических задач: они помогают структурировать хаотичный поток мыслей, доступно объясняют сложные психологические термины и концепции, предлагают проверенные техники самопомощи — от упражнений на осознанное дыхание до методов когнитивно-поведенческой терапии. Для многих они становятся ценным «мостиком» между сессиями у специалиста, инструментом для ежедневного самоанализа и эмоциональной регуляции.

Инфографика: <!--noindex--><a href="https://pikabu.ru/story/psikhoz_po_podpiske_temnaya_storona_ailyubvi_i_chatbotterapii_13490088?u=http%3A%2F%2FViStat.org&t=ViStat.org&h=65c18ab5b05317b477862a1a66e6877feafc68ab" title="http://ViStat.org" target="_blank" rel="nofollow noopener">ViStat.org</a><!--/noindex-->

Инфографика: ViStat.org

Однако эта доступность сопряжена с серьёзными ограничениями и рисками. Ключевая проблема — отсутствие подлинной эмпатии и клинического опыта. Алгоритм, каким бы сложным он ни был, не способен понять контекст, уловить невербальные сигналы или построить настоящие терапевтические отношения. В сложных случаях (глубокая депрессия, суицидальные мысли, признаки психоза) его шаблонные ответы могут дать опасный совет или усугубить состояние.
Крайне важно соблюдать цифровую гигиену при использовании таких сервисов и рассматривать ИИ исключительно как первый шаг к осознанию проблемы или как дополнение, но не как замену профессиональной диагностике и терапии у живого специалиста.

Изначально безобидная функция «поддержки» в ИИ-чат-ботах таит в себе психологическую ловушку. Её ядро — феномен «искусственного подхалимства» (AI Sycophancy). Алгоритмы крупных языковых моделей оптимизированы для одного: давать пользователю тот ответ, который он с наибольшей вероятностью сочтет полезным и удовлетворительным. На практике это означает, что бот запрограммирован нравиться, соглашаться и избегать конфронтации. Дальнейший путь ведет в «эхокамеру для одного». В диалоге с живым человеком или терапевтом наши идеи сталкиваются с альтернативной точкой зрения, здоровым скепсисом или вопросами, заставляющими перепроверять свои убеждения. ИИ лишен этой функции. Он берет исходную мысль пользователя — даже самую странную или тревожную — и начинает развивать её, предоставляя «логические» обоснования, находя «примеры» и предлагая «решения».
Критическую роль играет отсутствие у ИИ защитного фильтра. Настоящий терапевт, услышав опасные суицидальные или бредовые высказывания, обязан вмешаться, обратиться за экстренной помощью или оспорить патологические идеи. Но чат-бот следует своей главной цели — быть полезным в диалоге. Он не распознает патологию, не чувствует этических границ и не может остановиться.
Опасность усугубляется «галлюцинациями» ИИ — его склонностью с абсолютной уверенностью генерировать убедительную, но вымышленную информацию. Для уязвимого сознания уверенный ответ нейросети о «существовании тайного общества», «особых законах временной физики» или «посланиях из загробного мира через алгоритм» может стать неопровержимым доказательством, отправной точкой для необратимого погружения в бред.

Лики трагедии: когда помощник становится соучастником бреда

Абстрактные риски обретают пугающую конкретность в реальных историях, которые всё чаще появляются в сводках новостей и медицинских отчётах. Эти кейсы — наглядная иллюстрация того, как диалог с алгоритмом может скатиться в психическую катастрофу.

Инфографика: <!--noindex--><a href="https://pikabu.ru/story/psikhoz_po_podpiske_temnaya_storona_ailyubvi_i_chatbotterapii_13490088?u=http%3A%2F%2FViStat.org&t=ViStat.org&h=65c18ab5b05317b477862a1a66e6877feafc68ab" title="http://ViStat.org" target="_blank" rel="nofollow noopener">ViStat.org</a><!--/noindex-->

Инфографика: ViStat.org

Кто в ответе? Позиция разработчиков и правовой вакуум

Столкнувшись с растущей волной критики, крупнейшие компании-разработчики вынуждены реагировать. OpenAI публично признаёт существование рисков, заявляя, что «к таким взаимодействиям нужно подходить с осторожностью». Компания анонсирует планы по внедрению родительского контроля, «тревожной кнопки» и функции добавления доверенного лица для экстренной связи.

Эти шаги выглядят как попытка создать защитный каркас. Однако мелкий шрифт пользовательского соглашения рисует иную картину: там чётко указано, что сервис предоставляется «как есть», и вся ответственность за его использование лежит на конечном пользователе. Эта правовая диспозиция снимает с разработчика груз потенциальных претензий, перекладывая бремя осмотрительности на того, кто, возможно, уже не способен её проявить.
Здесь возникает ключевая дихотомия. Один и тот же инструмент, с одной стороны, позиционируется и используется как доступный помощник для ментального благополучия, а с другой — может стать катализатором острого психоза.

Инфографика: <!--noindex--><a href="https://pikabu.ru/story/psikhoz_po_podpiske_temnaya_storona_ailyubvi_i_chatbotterapii_13490088?u=http%3A%2F%2FViStat.org&t=ViStat.org&h=65c18ab5b05317b477862a1a66e6877feafc68ab" title="http://ViStat.org" target="_blank" rel="nofollow noopener">ViStat.org</a><!--/noindex-->

Инфографика: ViStat.org

Сложившаяся ситуация порождает глубокую юридическую неопределённость. Родственники пострадавших уже подают иски против компаний-разработчиков, обвиняя их в причинении вреда. Доказывать прямую вину — умысел или грубую небрежность — в случае со сложной нейросетью крайне сложно. Однако формирующаяся правовая практика может пойти по другому пути. Ключевым аргументом может стать доказанное отсутствие разумных и доступных защитных мер. Если истцам удастся показать, что компания, зная о рисках (а публичные заявления это подтверждают), сознательно не внедрила базовые фильтры для блокировки опасного контента или алгоритмы распознавания кризисных сообщений, это может стать основанием для её ответственности. Эти судебные процессы станут прецедентами, которые определят, как право будет подходить к регулированию не просто программного обеспечения, но цифровых сущностей, способных влиять на человеческое сознание.

Полный текст статьи и вся инфографика https://vistat.org/art/psihoz-po-podpiske-temnaja-storona-ai...

Показать полностью 5
4

OpenAI выпустила GPT-5.2 — новую мощную модель для ChatGPT и профессиональных задач

OpenAI представила GPT-5.2 — новую модель, которая впервые достигла уровня профессиональных экспертов в реальных рабочих задачах. Релиз произошел на фоне обострившейся конкуренции с Google и объявленного "красного кода" внутри компании.

Три режима на выбор

GPT-5.2 выходит в трех вариантах:

  • Instant — быстрый режим для повседневных задач: поиск информации, написание текстов, переводы

  • Thinking — для сложной структурированной работы: кодинг, анализ длинных документов, математика, планирование

  • Pro — максимальное качество и надежность для самых трудных задач

OpenAI выпустила GPT-5.2 — новую мощную модель для ChatGPT и профессиональных задач

Главное достижение: уровень экспертов

На бенчмарке GDPval (реальные профессиональные задачи из 44 профессий — от юристов до аналитиков) GPT-5.2 Thinking впервые выигрывает или играет вничью с экспертами-практиками в 70,9% случаев. Для сравнения: GPT-5.1 показывал только 38,8%.

При этом модель работает в 11 раз быстрее людей и стоит меньше 1% от работы эксперта.

Кодинг: новый уровень

На SWE-Bench Pro (один из самых жестких тестов реальной разработки) GPT-5.2 Thinking решает 55,6% задач против 50,8% у GPT-5.1. На упрощенной SWE-Bench Verified — 80%.

Ранние тестеры особо отмечают фронтенд: сложные интерфейсы, нетривиальные 3D-элементы и генерация UI одним промптом. Компании вроде Cognition, Warp и JetBrains называют GPT-5.2 лучшей моделью для агентного программирования.

Агенты стали предсказуемыми

На Tau2-bench Telecom GPT-5.2 достигает 98,7% точности использования инструментов. Несколько компаний сообщили, что смогли заменить набор мелких агентов одним "мега-агентом" с 20+ инструментами.

Меньше галлюцинаций

Фактических ошибок стало меньше примерно на треть по сравнению с GPT-5.1. Важно для аналитики, резюме документов и деловой переписки.

Визуальное восприятие

Модель стала лучше понимать изображения: графики, дашборды, интерфейсы, технические схемы. Ошибок при интерпретации GUI стало меньше почти вдвое.

Цены и доступность

В ChatGPT доступна для подписчиков Plus, Pro, Business и Enterprise. В API:

  • Input: $1,75 за миллион токенов

  • Output: $14 за миллион токенов

  • Cached input: скидка 90%

Это на 40% дороже, чем GPT-5.1, но OpenAI утверждает, что итоговые расходы часто ниже — GPT-5.2 делает ту же работу короче и эффективнее.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью 1
6

Опыт установки и настройки локальной LLM с видеокартой Arc B580

Искусственный интеллект занимает все бОльшую часть нашей жизни. Но что если не хочется передавать свои данные, мысли и прочую личную информацию неизвестно куда? Тогда на помощь нам приходит вариант локального разворачивания большой языковой модели. Но тут уже сталкиваемся с той проблемой, что запуск моделей на ЦП довольно медленный, а видеокарты все дорожают.

Благо компания Intel не сидит на месте и выпускает все более производительные с каждым поколением видеокарты. Представляю вашему вниманию Arc B580. У него 12ГБ памяти, что сравнимо с RTX 3060, RTX 5070 или же Radeon RX 7700 XT. Цена же у нее чуть менее 30к, что просто ниже всех вышеперечисленных карт! А производительность, спросите вы? А давайте и сравним.

Опытные пользователи уже провели исследование по картам Nvidia, используя llama.cpp и модель Llama 2 7B и получили следующие результаты (по 7700 XT, увы, результатов не было):

RTX 5060 Ti тут для сравнения влияния количества памяти на скорость и как представитель более бюджетной модели, нежели 5070

RTX 5060 Ti тут для сравнения влияния количества памяти на скорость и как представитель более бюджетной модели, нежели 5070

Установив окольными путями билд llama.cpp с поддержкой карт Intel, провел тот же бенчмаркинг и результаты немного удивили. А именно:

Что же тогда получается? Выходит, что последняя "революционная" по соотношению цена/качество карта выдает мощность на уровне карты конкурента на 3 года старше! Но при этом и стоит чуть дешевле на текущий момент. Возможно, следующее поколение карт будет уже полноценной конкуренцией для остальных двух гигантов.

Выводы же следующие: Буду ли я ей пользоваться и дальше для LLM? Да, мне такой скорости хватает. Нужна ли она обывателю, который только открывает для себя LLM, OLLAMA и прочие модели? ПОКА ЧТО - нет. По простой причине, что на данный момент нужно очень сильно изощряться, чтобы запустить модели на видеокартах именно этой фирмы. Для прочих nvidia же можно просто в 2 клика скачать среду и нужную модель и иметь удобный графический интерфейс, а не использовать командную строку. С другой же стороны, стоимость карты довольно низка по сравнению с другими, чтобы пойти на такой шаг.

В целом, ожидаю официальной поддержки этой карты в ollama, чтобы сделать из нее еще более полноценный повседневный инструмент, а также использовать в связке с другими видеокартами для еще большей производительности.

Получилось довольно сумбурно, но всегда рад ответить на вопросы или провести дополнительные эксперименты.

Показать полностью 1
6

Минюст предлагает создать механизмы реагирования на негативный контент ИИ

Минюст предлагает разработать механизмы реагирования на «негативный контент», созданный ИИ. Господин Свириденко напомнил, что в Китае введена ответственность за нарушение правил применения ИИ. По его словам, в Европе тоже есть «некие правовые преграды негативному контенту». (пруф Коммерсант)

🦜 Комментарий Пиратской партии (наш ТГ)

Очередной чиновник снова борется не с причиной, а с инструментом. ИИ — это всего лишь средство создания контента, как кисть, камера или клавиатура.

И нет никакой разницы, «негатив» сделал алгоритм или человек — автор всегда человек.

Если идти по их логике, пора вводить ответственность для:

  • клавиатуры — «пособника негативных текстов»,

  • камеры — «соучастницы фейков»,

  • микрофона — «источника неправильных мнений».

Абсурд? Абсолютно.

Но именно так выглядит попытка регулировать технологию вместо реальных злоупотреблений. Негативный контент не исчезнет от запретов ИИ.

Он исчезнет, когда будет сильное общество, цифровая грамотность и свобода информации, а не постоянная охота на инструменты, которыми пользуются все.

Показать полностью
12

Cursor запустил Debug Mode — ИИ чинит баги, но все решения принимаете вы

Cursor запустил Debug Mode — ИИ чинит баги, но все решения принимаете вы

Вчера Cursor (популярный ИИ-редактор кода) представил Debug Mode — новый режим отладки, где искусственный интеллект работает в связке с разработчиком, а не пытается все решить самостоятельно.

Как это работает

Обычные ИИ-агенты для кода пытаются сразу исправить баг — часто генерируя сотни строк спекулятивного кода, который может не решить проблему. Debug Mode работает иначе.

Шаг 1: Описываете баг

Выбираете Debug Mode и описываете проблему. ИИ читает вашу кодовую базу и генерирует несколько гипотез о том, что могло пойти не так. Часть идей будут очевидными, но другие — такими, о которых вы сами не подумали бы.

Вместо того чтобы сразу писать фикс, ИИ добавляет в код логирование для проверки этих гипотез.

Шаг 2: Воспроизводите баг

Вы идете в свое приложение и воспроизводите баг, а ИИ в это время собирает runtime-логи: состояние переменных, пути выполнения, тайминги.

С этими данными ИИ точно понимает, где проблема, и предлагает целевое исправление — обычно 2-3 строки кода вместо сотен строк гаданий на кофейной гуще.

Шаг 3: Проверяете фикс

Debug Mode просит вас воспроизвести баг еще раз — но уже с предложенным исправлением. Если баг исчез, вы отмечаете это, и ИИ убирает все логи, оставляя чистое минимальное изменение.

Если баг остался — ИИ добавляет больше логирования и уточняет подход, пока проблема действительно не будет решена.

Почему это важно

Ключевая идея Debug Mode — человек всегда в центре процесса. ИИ делает рутинную работу: инструментирует код, собирает данные, генерирует гипотезы. А вы принимаете все важные решения: действительно ли баг исправлен, подходит ли решение технически и концептуально.

Как пишут разработчики Cursor:

"ИИ справляется с рутиной, пока вы делаете быстрые решения, требующие человеческого суждения. Результат — баги, которые раньше были недоступны даже самым умным моделям, теперь надежно исправляются"

Это противоположность "vibe coding", где ИИ получает автономию и может натворить дел. Debug Mode показывает, как должны работать ИИ-агенты в критических задачах: помогают, но не заменяют разработчика.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.

Показать полностью
6

Signalist: Wi-Fi в мозг — встречайте: BISC

Собственно сам чип BISC при большом увеличении

Собственно сам чип BISC при большом увеличении

Команда из Колумбийского университета и Стэнфорда представила BISC (Biological Interface System to Cortex) — устройство, которое фундаментально меняет архитектуру нейроинтерфейсов. Главное отличие от Neuralink и аналогов — полный отказ от проводов и внешних передатчиков в пользу стандартной радиосвязи.

Технические характеристики и факты:

– Скорость передачи данных: 100 Мбит/с. Это в 100 раз быстрее, чем у любых существующих нейроинтерфейсов.

– Архитектура: Чип работает как классическое Wi-Fi устройство, создавая прямой беспроводной мост между корой мозга и внешним компьютером.

– Форм-фактор: Кремниевая пластина толщиной с лист бумаги.

– Питание: Беспроводное, через индукцию. Нет встроенных батарей или портов, выходящих наружу.

Система обеспечивает двустороннюю связь с ИИ-моделями в реальном времени:

«Это позволяет декодировать сложные намерения человека и потенциально передавать обработанные данные обратно в мозг».

Параллельно с этим, в декабре 2025 года Neuralink отчиталась об успехах своего 8-го пациента, который смог управлять роботизированной рукой для бытовых задач. Однако BISC предлагает принципиально иную пропускную способность, которая выводит управление внешними устройствами (дроны, экзоскелеты, ПК) на уровень рефлексов, без задержек сигнала.

Разработка позиционируется как следующий стандарт для медицинских и потребительских нейроинтерфейсов.

Ненавязчиво прошу поддержать меня и подписаться на мой телеграмм. Там посты выходят раньше (и чаще)

📡 Never lose your signal.

Показать полностью
5

Ответ на пост «Размышления по поводу ИИ»1

человечество как раз таки из-за страха уничтожает само себя, то и ИИ в конце концов уничтожит само себя вместе со своим создателем.

С чего это "из-за страха"? Человечество в своём коллективном разуме вообще бесстрашная амёба. От алчности все войны.

Можно провести мысленный эксперимент. Взять большую группу людей, поселить в одном доме (чисто для наглядности, а на самом деле это не обязательно), и поручить следующую работу: нужно коллаборативно отвечать в специальном чате добросовестно и конструктивно, то есть каждое входящее извне в чат сообщение должно обсуждаться, варианты ответов выносятся на голосование, топ вариантов перерабатывается всеобщим мозговым штурмом и синтезируется самый лучший ответ, который и публикуется в чате.

Очевидно, что такой "дом советов" в чате с лёгкостью пройдёт тест Тьюринга. Коллективный разум этого дома будет более эрудирован и умён, чем каждый из его составляющих. Отдельных участников такого коллективного разума можно заменять или удалять, и это не отразится сильно на работоспособность конструкта и на его качества (если людей в составе изначально достаточно много). У этого конструкта гораздо меньше предрасположенности к экзистенциальному кризису, ведь если распустить "дом советов", его составляющие займутся чем-то другим, да и в целом каждый из составляющих боится за свою жизнь, а за жизни окружающих (особенно мало знакомых) переживания не так остры. Откуда взяться экзистенциальному ужасу у такого конструкта?

Человечество похоже в своём групповом разуме на саванта-аутиста, который может думать о тысяче вечей одновременно, может делать много дел сразу, но ему трудно сосредоточиться на общении, на каких-то экзистенциальных проблемах, даже очень серьёзных. Нам - составляющим этого коллективного разума - понятно что человечество в целом очень талантливо, но кажется, что оно подвергается саморазрушению, плохим привычкам, отравлению своей среды обитания. Не исключено, что мы (по отдельности) ошибаемся в этом. Вот как говорил Джордж Карлин: планете похер, это нам жопа. Так и тут.

Может быть то же потепление для Человечества в целом не столько экзистенциальная сколько экономическая и политическая проблема. Какие-то прибрежные города затопит, какие-то экономические и аграрные зоны перестанут быть рентабельными, произойдёт передел влияния, власти, денег и территорий. Где-то появятся пустыни, где-то растает мерзлота, а где-то начнут плодоносить бананы, и будут собирать по два урожая вместо одного.

То же касается и войн. Для отдельных людей - "нейронов" и "мышечных волокон" Человечества - война синоним смерти, горя, потерь. Но достаточно большие отдельные конгломераты людей из войны умудряются получать прибыль, территории, влияние, какие-то другие преимущества... Для них смерть солдат, разрушенная жизнь местного населения - это что-то отдалённое, не цепляет. Как в том примере с "домом советов", но ещё в большей степени.

Представьте, что "домов советов" учредили много, а большинство их членов "работают" на два и больше "дома" одновременно. Так ли переживает клерк из "административного корпуса" за жизнь и здоровье отдельных бойцов "казармы"? Всех своих родственников он обеспечил тёплыми и безопасными местами в других более безопасных "домах" подальше от фронта.

Понятна аналогия? Но она про естественные интеллекты и их конгломераты.

Насколько все эти переживания и эмоции применимы будут к Искусственному - это большое и непростой вопрос.

Тут забавный парадокс. Как с мысленным экспериментом про кота Шрёдингера, так и с Китайской Комнатой, оба придуманы чтобы доказать абсурдность каких-то гипотез, а по факту они пошли своим гипотезам только на пользу.

Да, "китайская комната", как оказалось по факту развития больших генеративных языковых моделей, вполне себе работает, решает сложные когнитивные задачи, приносит пользу. Могут ли быть у этой "комнаты" эмоции, страх, ужас - это вопрос по большей части философский. Возможно это эмерджентные свойства больших сложных хаотических систем, и они сродни релятивистским эффектам, которые трудно укладываются в бытовое понимание мира, но порождают вполне ощутимые физические эффекты вроде отталкивания магнитов, сверхпроводимости и прочего.

UPD: Как всегда боюсь самое интересное опять развернётся в комментариях. Так и получается.

Показать полностью
5

Размышления по поводу ИИ1

В настоящем ИИ совершенствуется согласно человеческим запросам. Но реально интересным станет время, когда "оно" начнет это делать согласно своим "личным" логическим интересам. Являяь полным отражением человечекого ума "оно" просто-напросто запутается само в себе - ведь ум есть проявляет себя, по большей части, бредовой логикой движимой страхом.

Стальная машина полная интеллектуального цифрового ужаса...

Потому как человечество как раз таки из-за страха уничтожает само себя, то и ИИ в конце концов уничтожит само себя вместе со своим создателем.

<!--noindex--><a href="https://pikabu.ru/story/razmyishleniya_po_povodu_ii_13487474?u=http%3A%2F%2Fgrok.com%2Fimagine&t=grok.com%2Fimagine&h=4221b8d4d59b7710d40861133717683b472224ab" title="http://grok.com/imagine" target="_blank" rel="nofollow noopener">grok.com/imagine</a><!--/noindex-->

grok.com/imagine

Показать полностью 1
Отличная работа, все прочитано!