
Искусственный интеллект
Qwen добавили в своего чат-бота ИИ-редактор фотографий
Новый нейрофотошоп: Qwen добавили в своего чат-бота ИИ-редактор фотографий. И он работает.
Надо просто загрузить картинку и написать текстовый промт. Нейронка сама поймет, где находится объект для редактирования, и выдаст результат уже через минуту.
Пользуемся бесплатно в чат-боте. (https://chat.qwen.ai/?inputFeature=image_edit) Можно даже не заходить в аккаунт.
Создатель генеративного ИИ в Google призвал отказаться от медицинского и юридического образования
Джад Тариф, который основал подразделение GenAI в Google ещё в 2012 году, выступил с радикальным заявлением.
В интервью изданию Futurism он категорически не рекомендовал инвестировать время и ресурсы в медицинское или юридическое образование, прогнозируя полную автоматизацию данных профессий к моменту завершения университетских программ.
Джад предполагает, что к 2030-2033 годам ИИ-системы настолько продвинутся в своих возможностях, что смогут выполнять основные функции врачей и юристов с эффективностью, превосходящей человеческие возможности.
Вот что он еще добавил:
Я не думаю, что кому-либо вообще стоит получать высшую научную степень, если только он не одержим своей областью. Так что либо уходите в малоизученные ниши типа AI для биологии, либо просто не идите вообще никуда.
"Не получайте степень, если не одержимы" — отличный совет от человека с степенью, работающего в компании, нанимающей только людей со степенями.
А вообще, заявление Тарифа отражает технократический нигилизм: отрицание ценности человеческого знания перед лицом машинного интеллекта.
Но медицина и юриспруденция — это не только техническая экспертиза, но и моральная ответственность. Может ли ИИ нести ответственность за жизнь или свободу человека?
--
Мой тг-канал: ИИ by AIvengo, пишу ежедневно про искусственный интеллект
Делаем готовый рекламный ролик в Higgsfield
Обнова Product-to-Video позволяет интегрировать любой продукт в ваше сгенеренное видео.
🟡Для этого закидываем фото продукта и ставим его в то место, где он теоретически должен быть.
🟡Даем подсказку, что с ним должно происходить.
Доступна на моделях MiniMax Hailuo 02, Veo 3 и Seedance Pro.
История одной невероятной женщины!
**Турбо-Вагина: История одной невероятной женщины**
В недалёком будущем, где технологии шагнули далеко вперёд, а человеческое тело стало полем для биомеханических экспериментов, жила **Лера Ковальчук** — бывшая военная пилот, ставшая жертвой корпоративных игр.
После неудачного испытания **«Проекта Ева-9»** её тело подверглось… *модификации*. Теперь у неё была **Турбо-Вагина** — высокотехнологичный имплант с функцией **встроенного плазменного двигателя, нейросетевого интерфейса и, конечно, режимом «турбо»**.
### **Глава 1: Побег из лаборатории**
Когда Лера очнулась на операционном столе, первое, что она услышала, было:
— *«Теперь ты наше самое смертоносное оружие»*.
— **«Ошибаетесь. Теперь я ваша самая большая проблема»**, — ответила она и **активировала систему**.
Сотрясение. Взрыв. Стены лаборатории **разорвало** от направленного энерговыброса, а Лера, оставляя за собой **огненный след**, вылетела в ночное небо.
### **Глава 2: Враг государства №1**
Теперь за ней охотились:
✔ **Корпорация «ГиперТех»** — создатели импланта.
✔ **Правительственные агенты** — те, кто финансировал проект.
✔ **Кибербандиты** — мечтающие вырезать у неё «двигатель» и продать на чёрном рынке.
Но Лера не собиралась сдаваться. Она знала, что её тело — **не просто оружие, а ключ к чему-то большему**.
### **Глава 3: Режим «Турбо»**
В финальной битве на крыше небоскрёба, окружённая киберсолдатами, Лера **впервые использовала 100% мощности**.
— *«Вы хотели оружие? Получайте»*.
**Сверхзвуковой хлопок.**
**Ударная волна.**
**Абсолютная тишина.**
Когда дым рассеялся, от врагов остались **только оплавленные останки**.
### **Эпилог**
Лера исчезла. Говорят, она улетела **за пределы города**, туда, где её не найдут.
Но иногда, в тёмных переулках, **мелькает розовый след**, а корпоративные спутники фиксируют **аномальные энергоплески**…
Новый ИИ ассистент Эни от Илона Маска (без ограничений по возрасту)
Является ли ИИ самой большой угрозой для следующего поколения?
Детские психологи доктор Терри Сейновски и доктор Дэниел Амен делятся своими опасениями по поводу ИИ Грока и его потенциальной опасности для детей. Они обсуждают, как продвинутые системы ИИ могут изменить мышление детей, изменяя их внимание и фокусировку, что приводит к разрушительным последствиям.
Считаете ли вы, что ИИ для детей больше вреден, чем полезен?
Скрытая цена умного ИИ: сколько выделяется CO2 на один вопрос
Некоторые «мыслящие» модели ИИ, которые генерируют длинные пошаговые рассуждения перед ответом, могут выделять до 50 раз больше CO₂, чем модели, дающие короткие прямые ответы.
Каждый раз, когда мы задаем вопрос ИИ, он не просто возвращает ответ — он также сжигает энергию и выделяет углекислый газ.
Немецкие исследователи выяснили, что некоторые «мыслящие» модели ИИ, которые генерируют длинные, пошаговые рассуждения перед ответом, могут выделять в 50 раз больше CO₂, чем модели, дающие короткие, прямые ответы. При этом такие выбросы не всегда приводят к лучшим ответам.
Ответы ИИ имеют скрытую экологическую цену
Независимо от того, что вы спросите у ИИ, он всегда сгенерирует ответ. Для этого, независимо от точности ответа, система полагается на токены. Эти токены состоят из слов или фрагментов слов, которые преобразуются в числовые данные, чтобы модель ИИ могла их обработать.
Этот процесс, наряду с более широкими вычислительными операциями, приводит к выбросам углекислого газа (CO₂). Тем не менее, большинство людей не знают, что использование инструментов ИИ сопряжено со значительным углеродным следом. Чтобы лучше понять это влияние, исследователи из Германии проанализировали и сравнили выбросы нескольких предварительно обученных больших языковых моделей (LLM) с использованием согласованного набора вопросов.
«Воздействие на окружающую среду при обращении к обученным LLM в значительной степени определяется их подходом к рассуждениям, при этом процессы явного рассуждения значительно увеличивают потребление энергии и выбросы углерода», — сказал первый автор Максимилиан Даунер, исследователь из Мюнхенского университета прикладных наук и первый автор исследования Frontiers in Communication. «Мы обнаружили, что модели с поддержкой рассуждений производят до 50 раз больше выбросов CO₂, чем модели с краткими ответами».
Модели с рассуждениями сжигают больше углерода, но не всегда дают лучшие ответы
Команда протестировала 14 различных LLM, каждая из которых имела от семи до 72 миллиардов параметров, используя 1000 стандартизированных вопросов по различным предметам. Параметры определяют, как модель обучается и принимает решения.
В среднем модели, созданные для рассуждений, производили 543,5 дополнительных «мыслительных» токенов на вопрос, по сравнению с всего 37,7 токенами у моделей, дающих краткие ответы. Эти мыслительные токены — это дополнительный внутренний контент, генерируемый моделью, прежде чем она остановится на окончательном ответе. Больше токенов всегда означает более высокие выбросы CO₂, но это не всегда приводит к лучшим результатам. Дополнительные детали могут не улучшить точность ответа, даже если это увеличивает экологические издержки.
Точность против устойчивости: новый компромисс в ИИ
Самой точной моделью оказалась модель Cogito с поддержкой рассуждений и 70 миллиардами параметров, достигшая точности 84,9%. Эта модель произвела в три раза больше выбросов CO₂, чем модели аналогичного размера, которые генерировали краткие ответы. «В настоящее время мы видим явный компромисс между точностью и устойчивостью, присущий технологиям LLM», — сказал Даунер. «Ни одна из моделей, у которых выбросы не превышали 500 граммов эквивалента CO₂, не достигла точности выше 80% при правильном ответе на 1000 вопросов». Эквивалент CO₂ — это единица, используемая для измерения воздействия различных парниковых газов на климат.
Тематика также приводила к значительному различию в уровнях выбросов CO₂. Вопросы, требующие длительных процессов рассуждения, например, по абстрактной алгебре или философии, приводили к выбросам в шесть раз выше, чем по более простым предметам, таким как история средней школы.
Как делать запросы умнее (и экологичнее)
Исследователи заявили, что надеются, что их работа заставит людей принимать более обоснованные решения об использовании ИИ. «Пользователи могут значительно сократить выбросы, давая ИИ указания генерировать краткие ответы или ограничивая использование высокопроизводительных моделей для задач, которые действительно требуют такой мощности», — отметил Даунер.
Например, выбор модели может иметь существенное значение для выбросов CO₂. Например, если DeepSeek R1 (70 миллиардов параметров) ответит на 600 000 вопросов, это создаст выбросы CO₂, равные перелету туда и обратно из Лондона в Нью-Йорк. Между тем, Qwen 2.5 (72 миллиарда параметров) может ответить более чем в три раза больше вопросов (около 1,9 миллиона) с аналогичными показателями точности, генерируя те же выбросы.
Исследователи заявили, что на их результаты может повлиять выбор оборудования, используемого в исследовании, фактор выбросов, который может варьироваться в зависимости от региональных энергетических сетей, и исследуемые модели. Эти факторы могут ограничивать обобщаемость результатов.
«Если бы пользователи знали точную „цену“ в CO₂ каждого сгенерированного ИИ результата — например, когда они ради развлечения создают собственное изображение в виде экшен-фигурки — они, возможно, были бы более разборчивы и вдумчивы в том, когда и как использовать эти технологии», — заключил Даунер.
Ссылка: «Энергетические затраты на общение с ИИ» Максимилиана Даунера и Гудрун Зохер


