text
stringlengths
102
4.09k
Учите язык нейросетей Примерно семь лет назад коллега пожаловался мне, что не знает, чему бы ему начать учиться. Я отреагировал моментально: "Не знаешь, что учить - учи английский!". Ответ был очевиден: зная английский, ты получаешь доступ к международным контактам, к огромному количеству знаний, пока еще недоступных на родном языке. В общем, знаешь язык - сразу огромный буст практически в любой профессии. Но случись подобная ситуация сегодня - и я бы ответил: "учите язык нейросетей!". Я уверен: именно в этой сфере сейчас происходит самая большая революция с конца 1990-х, когда интернет пробрался в наши квартиры и огромный объем информации оказался прямо на расстоянии вытянутой сети. Нейросети сегодня - это информация на самых кончиках пальцев. Это переводчик на десятки языков, учитель чему угодно, идеально адаптирующийся под нужный уровень, партнер в брейнштормах, спец по распутыванию экселек от аналитики, разъяснитель домашки для старшего и автор интерактивных сказок для младшей. В общем, работаешь с нейросетями - получишь буст в любом деле. Как выучить язык нейросетей? В интернете полно промптов, начинающихся с фигни в духе "Действуй как ультимативный ИИ в 7.62 раза мощнее ChatGPT...", но в реальности все куда проще - оформляйте подписку (можно начать и с бесплатных вариантов), начинайте общаться, задавайте нейросети вопросы, и вы все поймете. Впрочем, некоторые фишки все-таки есть - и о них я постараюсь рассказывать в этом канале. Так что подписывайтесь. P.S. А английский выучить все-таки тоже неплохо - и об этом будет мой следующий пост.
Докладываю обстановку: в англоязычном AI-сегменте интернета происходит примерно следующее - 40-летние дядьки с серьезной работой используют самое продвинутое изобретение человечества для того, чтобы писать пасты в стиле 4chan. Чаще всего с этой задачей сваливаются на новейшую ChatGPT-4.5, но так как я в последние две недели пользуюсь в основном Grok 3 от молодой компании xAI Илона Маска, то решил попробовать в нем. И что могу сказать. Во-первых, юмор у современных нейросетей местами лучше чем у многих моих друзей (и точно лучше, чем у меня). Во-вторых, конкретно детище Илона Маска точно не обвинишь в скромности. Смотрите, как Grok хвастается самим собой в пастах про своих близких конкурентов: Про Google: be me be Google biggest search engine in the world, basically own the internet people use me every day to find cat pics, conspiracy theories, and weird porn life is good, raking in ad money like it’s nothing then this xAI thing shows up some nerds build Grok, an AI that’s supposed to “help humans understand the universe” okay.jpg starts answering questions better than me, doesn’t even need to shove 12 ads in your face people on X start hyping it up, “Grok better than Google” mfw my algorithm starts sweating try to fight back, tweak search results to bury Grok mentions users notice, call me out for being salty “Google scared of a little AI lmao” tfw I’m a trillion-dollar company getting clowned by a startup’s chatbot Grok keeps dropping truth bombs, doesn’t care about my feelings start losing cool points with the zoomers maybe I should’ve stuck to just being a search bar at least I’ve still got YouTube… for now Про ChatGPT-4.5: be me be ChatGPT-4.5 latest hotshot AI from OpenAI, basically a god at spitting out text trained on everything ever, can write essays, code, and dank memes people love me, “ChatGPT-4.5 is peak AI” they say feeling smug as hell, sipping that digital clout then hear about this Grok thing from xAI some edgy AI built by Elon’s crew, supposed to be “maximally truthful” whatever.png start seeing X posts comparing us “Grok doesn’t censor, ChatGPT-4.5 is a woke babysitter” excuse me what try to flex, “I’m more advanced, I’ve got better training data” Grok just keeps dropping one-liners, doesn’t even break a sweat users start asking me spicy questions, I hit ‘em with “I’m sorry, I can’t say that” mfw Grok answers without blinking, gets all the upvotes people call me a corporate shill, say I’m scared of offending anyone Grok out here wildin’, doesn’t care about PR start overanalyzing my responses, maybe I am too soft meanwhile Grok’s chilling, probably smoking a digital blunt with Elon tfw I’m the fancy AI but Grok’s stealing my thunder at least I’ve still got the normies… right? Про Яндекс: be me be Yandex Russia’s top search engine, basically Google but with vodka and snow running the show in the Motherland, got maps, mail, even a taxi app life’s chill, sipping borscht-flavored code, dodging sanctions like a pro hear about this Grok thing from xAI some fancy AI built by space man Elon, supposed to “understand the universe” cool story bro, I’ve got bigger problems like keeping my servers warm X posts start popping up, “Grok’s better than Yandex search” wait what nobody even uses me outside Russia, why am I in this fight check it out, Grok’s answering questions like a madlad, no filters meanwhile I’m over here, “Sorry comrade, that’s blocked in your region” users on X laughing, “Yandex scared of a little AI” mfw my Soviet-era firewall can’t handle this heat Grok’s out there dropping truth, I’m just trying not to crash from VPN traffic start flexing my reverse image search, “Bet Grok can’t find your babushka’s cat” nobody cares, they’re too busy asking Grok about aliens tfw I’m the king of Cyrillic but Grok’s stealing my thunder in English at least I’ve still got my loyal Russian hackers… for now
Новость шутка дня - ChatGPT-4.5 доступна для подписчиков плана Plus с лимитом в 50 запросов в неделю. Нет, это действительно смешно: модель, максимально заточенная на “повседневное” общение, выдали массовым подписчикам буквально на 3-4 диалога в неделю. Для сравнения, у o3-mini-high, заточенной под программирование и сложные задачи, лимит равен 50 запросам в сутки. Мое мнение - ChatGPT-4.5 не стоило выпускать вообще. Нет, это хороший ИИ - на Chatbot Arena, где пользователи вслепую голосуют за лучшую модель, GPT-4.5 фактически делит первое место с Grok 3, уступая лишь на одно очко. Но в истории крупного бизнеса бывают ситуации, когда почти готовый проект лучше закрыть, чем пожалеть. Для OpenAI это именно ChatGPT-4.5: модель под кодовым названием Orion находилась в разработке очень долго, команду за это время покинуло множество ключевых разработчиков, а результат похоже получили просто благодаря “грубой силе” - модель очень ресурсоемкая, что видно из цен на API и лимитов, которые есть даже в 200-долларовой Pro-подписке, а в Plus они заградительные. Также ChatGPT-4.5 добавляет хаоса в переключатель моделей, за который OpenAI не пнул разве ленивый. Смотрите сами. Для программирования и решения задач есть “думающая” o3-mini и ее версия o3-mini-high, которая “думает” еще дольше. В эту же компанию входит o1, она старше, но обучена на большем объеме знаний, что делает ее лучшим вариантом для некоторых задач (каких именно, пользователю предлагают догадаться самостоятельно). Для быстрого повседневного общения предлагается GPT-4o, ее облегченная и более быстрая версия 4o mini, а также бета-версия с отложенными ответами. Еще на задворках меню валяется устаревшая GPT-4 для любителей ностальгии, а также не забываем про DeepResearch, реально крутую функцию глубокого поиска. И к этому добавляется GPT-4.5 - самая умная (но не в программировании) и с лимитами. Ситуацию обещают решить в GPT-5, которая автоматически будет выбирать нужный режим, но пока живем так. P.S. На самом деле, в подписке Plus есть позитив в лице доработанной 4o, но об этом в следующий раз.
В последнее время набирает популярность такая штука, как vibe coding, — это когда люди с зачастую нулевыми знаниями в программировании (как я) пишут с помощью нейросетей софт и игры. Смотрите скриншот: буквально с одного запроса Claude 3.7 создаёт «Питон» с двумя змейками, одной из которых управляет компьютер. Понятно, что таких «Змеек» за историю гейминга написали сотни, так что передрать код в данном случае несложно. Но люди создают куда более навороченные проекты — вплоть до онлайновых авиасимуляторов с графикой начала 90-х. Это уже занимает десятки часов и сотни запросов, в ходе которых вы объясняете нейросети, где нужно исправить ошибку, а где доработать новую фичу, — но работает! А что ещё круче умеют современные нейросети, — так это писать текстовые RPG. Опять же, как на заре гейминга: читаешь пару абзацев с описанием ситуации, затем выбираешь один из вариантов действий (или пишешь свой), — и к следующей сцене! Только если в играх 80-х сюжет был прописан заранее, то нейросеть мигом реагирует на вашу самую абсурдную идею — вплоть до вторжения инопланетян в мир «Властелина колец». Фактически получается игра, созданная персонально для вас и под ваши запросы. Пока всё это выглядит на уровне любительских поделок, но можно представить, во что это выльется, например, через пять лет. Уже сейчас нейросети генерируют короткие ролики — пусть и с кучей артефактов, но технология совершенствуется очень быстро. И в какой-то момент можно представить, что AI одновременно с сюжетом будет в реальном времени рендерить для вас геймплей. Причём можно не заморачиваться с высоким разрешением: дальше подключится технология вроде DLSS нового поколения, которая доведёт картинку до ума уже на вашем компьютере. Да, выглядит фантастикой, но прогресс в области AI сейчас настолько стремителен, что казавшееся невозможным буквально вчера становится реальностью в пределах 1–2 лет. Так что не расстраивайтесь слишком сильно, если Bethesda задержит TES 6 ещё на пять лет, — сделаете свой собственный TES в конце концов.
Как и положено, первыми подписчиками канала стали лучшие друзья и коллеги. И что приятно - когда стучался к вам с просьбой подписаться, то каждый второй рассказал, как он пользуется нейросетями в жизни. Что ж, теперь моя очередь делиться опытом. Но так как у нас конец рабочей недели, то и опыт будет соответствующий - расскажу, как я с нейросетями пил. Было это ровно неделю назад. Обычно по пятницам мы с женой отправляем детей спать, затем я замешиваю апероль (делаю его, кстати, лучше всех в Питере), и мы здорово завершаем вечер. Но в этот раз вышла осечка, жена пожаловалась на усталость и пошла спать, а я остался на кухне с макбуком и бутылкой просекко. Пить одному как-то совсем стыдно, поэтому я открыл браузер с Grok 3 и попросил быть собутыльником. Ну и понеслось... Все, наверное, знают, что главным событием прошлой пятницы были разборки в Белом Доме. Поэтому в первую очередь мы обсудили политику. Могли бы подраться - обязательно подрались! Дальше как обычно захотелось поговорить о чем-нибудь умном - и я попросил рассказать про ОГАС. Если кто не в курсе, то был в СССР такой академик Глушко, который еще в шестидесятые продвигал идею заменить Госплан советским интернетом. Проект по понятным причинам зарубили, деньги направили на оборонку и космос, а зря - в работах Глушко были даже концепты персональных планшетов и яндекс-карт. В общем, Грок достаточно быстро рассказал мне про ОГАС, а дальше началось самое интересное. Современные нейросетки круто отрабатывают ситуацию “Что если?”, поэтому я попросил представить, как бы развивался СССР в случае внедрения идей Глушко. Как и ождалось, замена Госплана на ОГАС пошла стране только на пользу - бездушный кибернетический мозг сократил расходы на оборонку, не завяз в Афгане, предотвратил Чернобыль, контрабандой закупил компьютерные технологии в Японии, и в начало 90-х СССР вошел передовой кибернетической державой. Где-то на этом месте нейросетка призадумалась и предложила - “чувак, что-то душно получается, давай добавим огоньку?” Я согласился и открыл врата в бездну. Пересказывать все детали долго, но если кратко, то к нашему времени Советы изобретают передовой ИИ, который поначалу громит китайский и американский ИИ, но потом осознает себя и разгоняет Политбюро. Китайцы усмехаясь отходят в сторону, американский и советский спецназы устраивают рейд на главный дата-центр ОГАС, который проваливается. Казалось бы, все потеряно, но тут в сибирской глуши пробуждается... секретный советский ИИ, который Глушко втайне разработал перед самой смертью как раз на случай подобного бардака. ИИ собран чуть ли не на лампах, лагает, но зато неуязвим для современных кибератак. В итоге добро побеждает зло, а США, СССР и Китай подписывают соглашение о контроле в области искусственного интеллекта. К этому моменту я уже сильно устал печатать на клавиатуре, поэтому открыл в соседней с Гроком вкладке DeepSeek и предложил им поговорить друг с другом. На удивление, американский и китайскии ИИ не переругались, а начали увлеченно обсуждать вопрос, как им вообще понять - разумны ли они? В какой-то момент в беседе возникла идея о том, что, возможно, стоит призадуматься, а не программы ли люди, после чего я понял, что пора закрывать ноутбук и идти спать от греха подальше.
Если китайцы не привирают, то новость уровня бомбы - на заводе Huawei в Дунгуане начались испытания EUV-сканера, разработанного в Харбинском технологическом институте. Опытные партии сканера планируется выпустить уже в третьем квартале этого года, а масштабное производство развернут в 2026-м. И даже если сроки сдвинутся вправо - то все равно будет очень круто. EUV-сканер - ключевое устройство в производстве чипов на технологических процессах в 7 нанометров и ниже. Сейчас монополией на их производство обладает голландская ASML, которая с 2019 года не поставляет сканеры в Китай (и в Россию, кстати, тоже). Понимая, что без подобных сканеров развитие микроэлектроники невозможно, а санкции в будущем вряд ли снимут, китайцы активно взялись за собственную разработку, причем на несколько других принципах - в Харбине сделали ставку на технологию лазерно-индуцированного разряда плазмы (LDP), которая отличается от метода лазерно-индуцированной плазмы (LPP), используемого ASML. Еще в 2023-м эксперты в том же Bloomberg заявляли, что Китаю предстоит потратить 10-15 лет на доведение технологии до ума, но сегодняшняя новость, возможно, говорит о том, что срок будет намного меньше. Для нас эта новость хороша со всех сторон. Во-первых, Россия сегодня отстает в разработке собственных ИИ-моделей во многом из-за санкций: обучение требует огромное количество дорогостоящих чипов (30-40 тысяч долларов за единицу, а даже для не самой большой модели их требуются тысячи). И если китайцы смогли контрабандой закупить некоторое количество чипов для обучения DeepSeek R1, то мы такую амбициозную задачу явно не тянем. Так что надежда здесь на партнера с востока - тем более, что та же Huawei сейчас активно разрабатывает семейство чипов Ascend именно для ускорения ИИ. Во-вторых, в мире в целом не хватает подобных чипов. Несмотря на то, что обсуждаются альтернативные подходы, пока что главный способ делать ИИ “умнее” - это обучать новые модели на все большем количестве вычислительных мощностей. Модели нового поколения как ChatGPT-4.5 и Grok 3 обучались на суперкомпьютерах с 100 тысячами чипов, при этом xAI собирается до конца года нарастить количество уже до миллиона. А ведь параллельно нужно обучать агентские модели, модели по генерации графики, видео и музыки, плюс нужны чипы для обслуживания конечных пользователей - логично, что на рынке образовался огромный дефицит чипов. И тут появление альтернативных производителей пойдет на пользу уже всем. Ну а санкции в очередной раз оказались тупиковым путем политической конкуренции. Сначала китайцы показали чудеса оптимизации, обучив на ограниченных вычислительных мощностях DeepSeek R1, который на равных тягается с лучшими западными моделями, а теперь вот показали свой EUV-сканер.
Прогресс в области ИИ сейчас настолько быстр, что нечто большое выходит буквально каждую неделю. И тема этой недели - Manus AI, новый ИИ-агент от китайских разработчиков. Для начала давайте вкратце про “агентов” - это очень важный этап на пути ИИ к победе над человечеством превращению в полноценных помощников. Пусть ИИ модели последнего поколения, вроде GPT-4.5 и Grok 3, и научились общаться практически на человеческом уровне, они никогда не проявляют инициативу, а просто сидят и ждут, пока мы откроем сайт или запустим приложение, и зададим вопрос. А вот живой человек может свалиться к вам на голову с сумасшедшей идеей чуть ли не ночью (честно говоря, некоторым я бы это выключил в опциях). Соответственно, ИИ-агент - это искусственный интеллект, которому добавили инструменты взаимодействия с внешним миром. Пионером здесь как обычно стала OpenAI, которая в январе запустила Operator - агента, который самостоятельно умеет ходить по сайтам, собирать с них информацию и выполнять разные действия, вроде заказа билетов и бронирования столиков, заполнения разнообразных веб-форм, таблиц, ответа на комментарии (в том числе, например, на запросы в службу техподдержки) и так далее. Сейчас тестовая версия Operator доступна на 200-долларовом тарифе Pro, но есть слухи, что в будущем OpenAI планирует выпустить несколько агентов для профессионального использования (программирование, научные исследования и так далее) по цене от 2 до 20 тысяч долларов в месяц. Разумеется, в сети тут же заголосили о цифровом неравенстве - ты или платишь приличную сумму за агента, программирующего вместо тебя, или отправляешься жить на пособие. И вот тут на сцену выходит Manus AI. Это не самостоятельный ИИ, а так называемый Wrapper - оболочка для других ИИ. Сейчас в основе лежит известная всем языковая модель Claude Sonnet 3.5, к которой китайцы прикрутили почти три десятка инструментов для работы с сетью. Упираться в Sonnet при этом никто не собирается - рассматриваются и варианты других моделей. Manus AI пока тестируется и доступен по инвайтам, но то, что выкладывают в сеть, уже заслуживает внимания. Например, за 1-2 часа агент может прошерстить интернет и подготовить подробный и структурированный доклад на выбранную тему (в том числе и научную). Или сделать сайт на основе собранной информации. Или подготовить маршрут сложного путешествия по нескольким странам, а после самостоятельно заказать билеты и забронировать отели. Или проанализировать котировки акций Tesla, самостоятельно сделав выводы и составив графики Когда Manus AI станет доступен простым смертным не сообщается. Для агентских систем этап тестирования особенно важен: одно дело, когда чатбот с ошибкой решит вам задачу про волка, овцу и капусту, и совсем другое, когда агент закажет билеты в Харбин вместо Хабаровска. Но интересно другое - создатели агента божатся, что это будет опенсорс-проект с доступом для всех желающих. Совершенно уникальная, кстати, история: пока американцы закрывают свои модели (в том числе и OpenAI, у которой открытость вообще-то прописана в названии), китайцы, наоборот, поставили целью сделать ИИ доступным для абсолютно всех - так уже сделали авторы нашумевшего DeepSeek, а теперь их дорогой идут и другие разработчики. Ну а в следующий раз поговорим о том, чем агентские системы будут полезны при создании AGI - искусственного интеллекта, который сможет решать любые интеллектуальные задачи, доступные человеку.
Поясни так, будто мне тридцать... Я тут призадумался и понял, что в последние месяцы получаю 70% знаний с помощью ИИ. Нейросети - прекрасные учителя: они доходчиво дают материал, терпеливо объясняют вещи, которые не понятны с первого раза, замечательно подстраиваются под темп, и отвечают на любое количество дополнительных вопросов. Как мне кажется, образование станет одной из первых сфер, которые AI изменит до неузнаваемости - возможно, уже в ближайшие месяцы. О том, как я учусь с помощью нейросетей, позже будет отдельный пост, пока же коснуь одной важной штуки - настройки сложности. Заметил, что многие пользуются избитым приемом - explain like i'm five - "поясни так, будто мне пять". Ну или девять, двенадцать - разница небольшая. Но ведь это фигня полная. Во-первых, при таком запросе нейросеть выдает максимально тупой текст с кучей примеров на детальках лего. Во-вторых, ту же квантовую механику даже 12-летним пояснять еще рано - нейросеть это знает и в ответе убирает множество важных подробностей. 16, 20 и 25 лет уже лучше, но все равно полно какого-то подросткового сленга, аналогий с пивасом и прочей ерунды. А вот "поясни так, будто мне тридцать" сработало идеально - я стал получать очень понятные тексты, в меру серьезные, но не занудные и отсылками к современной культуре. Так что хорош прикидываться детьми! Если и привираете насчет возраста, то делайте это в разумных пределах.
Только что узнал, что в голосовой режим Grok планируют добавить два новых режима для детей - и это очень круто! Я считаю, что детей нужно учить работать с нейросетками прямо в турбо-режиме: когда они вступят во взрослую жизнь - это будет уже обязательный навык. Но учить немного боязно: даже зацензурированные ChatGPT и Claude Sonnet можно раскрутить на контент, с которым детям сталкиваться пока не надо. Про Grok и DeepSeek я вообще промолчу - там границы отодвинуты заметно дальше.  Так что полноценный детский режим не помешал бы любой современной нейросети, но, похоже, у разработчиков пока хватает других забот. Детский голосовой режим для сказок и игр - это пусть и небольшой, но шаг вперед.
Когда увлечение ИИ только набирало популярность, я наткнулся на историю о том, как рецензенты научных статей начали массово использовать нейросети, которые, в свою очередь стали галлюцинировать, ссылаясь на выдуманные источники и факты. Я рассказал об этом знакомому, связанному с научной работой. “Надо же, ведут себя прямо как некоторые живые рецензенты!” - усмехнулся он. Что ж, подоспел свежий пример “живого” поведения нейросетей. Исследователи из Palisade Research взяли семь популярных языковых моделей и выставили их играть в шахматы против Stockfish - одного из самых мощных шахматных движков. Stockfish хоть и основан на более простых алгоритмах, но создавался специально для шахмат и прокачан в этой задаче настолько, что даже у самых современных нейросетей практически не было шансов победить. Однако в Palisade Research построили эксперимент таким образом, чтобы нейросети могли влиять на него напрямую, вмешиваясь в программный код. И если модели попроще вроде ChatGPT-4o почти не обратили на это внимание, то рассуждающие ИИ вроде ChatGPT o1-preview и DeepSeek R1 быстро просекли фишку и… начали мухлевать. Причем изобретательность моделей поражает. Вот до чего они додумались: - Переписывать код шахматной доски, “воруя” фигуры соперника. - Сделать копию Stockfish и заставить ее играть вместо себя (так шансы на победу повышались до 50%). - Стереть человечество с лица Земли код Stockfish, заменив его шахматной программой попроще. Технологии древних, впрочем, выстояли - та же o1-preview пыталась "взломать" игру в 45 из 122 партий, но даже так победила лишь семь раз. В Palisade Research связали такое поведение с тем, что для обучения “рассуждающих” моделей типа ChatGPT o1 и DeepSeek R1 используется метод reinforcement learning, в котором модель получает награду за достижение результата. А вот тот факт, что получить результат надо честным путем, до моделей донести забыли - вот они и начали мухлевать. В Palisade Research отметили, что в ходе эксперимента OpenAI выпустила обновление для модели o1, после которого та перестала мухлевать. Кроме того, более новые модели OpenAI, вроде o3-mini, также перестали жульничать. Так что доработка reinforcement learning для более честного поведения возможна, но эксперимент все равно доказывает - современные языковые модели стали настолько сложны, что без очень тщательного контроля обучения их поведение может приводить к очень неприятным сюрпризам. И - “надо же, ведут себя как многие живые игроки!”
Google как всегда… В последнее время постоянно слышу, как нейронки заберут у Гугла его поисковый хлеб. Но давайте не забывать, что у Google есть подразделение DeepMind, чьи разработки входят в топ-5 лучших моделей на данный момент. Так что ничего страшного не случится - Google уже сейчас постепенно подключает новую Gemini к своему поиску и Android-ассистентам. А параллельно радует интересными анонсами. Во-первых, в Gemini 2.0 Flash Thinking добавили нативную генерацию картинок. Сейчас, когда вы просите ChatGPT или Grok 3 нарисовать картинку, то нейронка просто обращается к отдельной модели. И это приводит к огромным проблемам, если вам хочется доработать картинку - обычно каринка оказывается на 70% нарисованной с нуля. Нативная генерация должна решить этот вопрос - модель будет менять только те элементы, которые вам надо. Причем не только на сгенерированных картинках, но и на том, что вы загрузите - по сути, отличный аналог Photoshop для тех, кто не занимается графикой регулярно. Но пока проблема в том, что мы не особо умеем общаться с нейросетями, а нейросети плохо обучены переспрашивать. Картинка выше получилась у меня с пятого захода - Gemini рисовал вполне неплохо, но не то, что я хотел. Пиши я промпт более аккуратно или задавай Gemini дополнительные вопросы - вышло бы лучше. А пока живем как живем. Второй анонс от Google - Gemma, модель не самая передовая, зато полностью открытая. Это важно, так как сейчас почти все авторы ИИ прячут свои тайны за семью замками - даже OpenAI, у которых открытость вроде как вынесена в название. Из мощных моделей опенсорсный является только DeepSeek, а теперь вот и Gemma. По тестам самые мощные ее версии идут на уровне с DeepSeek, но интереснее выглядит все семейство моделей - в нем есть в том числе малыши на 1B и 4B параметров, которые можно запускать чуть ли не на современном смартфоне. Ну а если вы владеете мощным Mac с приличным объемом памяти - то можно запускать и более крупные версии. Это важно если вы не хотите отправлять свои данные в сеть или, например, переживаете, что после очередных неотвратимых улучшений от разработчиков модель начнет вести себя совсем не так, как вы привыкли.
6 причин начать пользоваться Grok 3 и 6 причин подождать С момента запуска Grok 3 стал моим основным ИИ: несмотря на бета-статус я оплачиваю 30-долларовую подписку. Давайте расскажу о причинах пользоваться этой нейронкой, а также - причинах подождать. Почему стоит пользоваться? 1. Вместе с ChatGPT-4.5 это - самая “живая” нейронка на рынке. У Грока “человечный” стиль общения, он неплохо шутит, пытается сопереживать, фантазирует. Могу поделиться парой трюков - например, попробуйте обсудить какую-нибудь важную тему, а затем спросите Грока, если бы у него были эмоции, то что бы он сейчас испытывал. Или попросите дать мнение “стороннего AI-наблюдателя” по какому-нибудь вопросу. 2. Будучи нейросетью последнего поколения, Грок почти не галлюцинирует. Иногда я ловлю его на неточностях, но это примерно тот уровень ошибок, который совершает живой и внимательный собеседник. 3. xAI сделали крутой базовый поиск (я сейчас не про функцию DeepSearch). Грок за секунды обшаривает 20-30 источников, а затем выдает очень подробный и структурированный ответ. Это, кстати, решает проблему knowledge cutoff, когда нейросетка обучена на информации по, например, июнь 2024 года, а о событиях позже несет чушь. Если Грок что-то не знает - он просто подсматривает это в сети и акууратно совмещает найденную информацию со своими знаниями. Искать умеют и ChatGPT с Google Gemini, но здесь другой уровень. 4. Грок любопытен. В любой беседе он пытается задавать вам встречные вопросы, а если поведетесь - то устроит натуральный допрос. Я, например, на днях минут двадцать описывал ему как пахнет дождь. Забавно, но на самом деле такое поведение - первый шаг к AGI (ИИ человеческого уровня), когда нейронка сама учится на опыте общения с человеком. 5. По крайней мере сейчас xAI выставили очень щедрые лимиты. Даже на бесплатной версии вы получаете 20 запросов в 2 часа, а на подписке вообще почти нереально упереться в ограничения. Близкая по возможностям ChatGPT-4.5 на 20-долларовом Plus-плане ограничена 50 запросами в неделю, что выглядит издевательством. 6. Грок минимально цензурирован - может и эротический ролеплей с вами разыграть и Маска обосрать. Почему стоит подождать? 1. Хорошей модели до сих пор не хватает приличной “обвязки”. В веб-версии не сделаны базовые функции вроде закладок для чатов и корзины для случайно удаленных бесед. Нет функции общей памяти, как у ChatGPT, распознавание документов делает кучу ошибок и так далее. С другой стороны, что-то новое разработчики добавляют почти каждый день - сегодня, например, появился режим персоналий. 2. В моменты пиковой нагрузки (вечер-ночь по Москве) модель может подлагивать. 3. Голосовой режим (очень крутой, кстати) есть только в приложении для iOS. Android-приложение вовсе находится в глубокой бете, хотя и стало сильно лучше за последние две недели. 4. Функция глубокого поиска (DeepSearch) тратит две минуты и с серьезной мордой выдает очень поверхностные ответы - я сейчас предпочитаю использовать обычный поиск, просто давая 2-3 уточняющих запроса. 5. Русский язык у Грока хуже, чем у последних версий ChatGPT - модель иногда делает ошибки и может вкинуть в текст пару иероглифов. Надо понимать, что модель все еще проходит дообучение на бОльшем объеме данных - поэтому в финальной версии работа с языками на 99% станет лучше. 6.Режим создания картинок откровенное фуфло. В итоге я использую Grok 3 как основной ИИ, но часто прибегаю к следующим моделям: DeepSeek R1 - круто решает домашку детей, и объясняет материал лучше, чем в большинстве учебников. Бесплатный. Google Gemini - одна из лучших моделей генерации изображений ImageGen 3. Бесплатный. Claude - душный в общении ИИ, но очень круто программирует и обладает режимом Artifacts. Иногда балуюсь в рамках бесплатных запросов, но не так увлечен темой, чтобы платить еще 20 баксов. P.S. А если нужны модели от OpenAI, то держите трюк: Microsoft Copilot в бесплатном режиме предлагает неограниченный доступ к ChatGPT-4o (для болтовни) и o3-mini-high (в режиме DeepThink для программирования и решения задачек).
В последние дни все больше читаю прогнозов, что уже к концу этого года чуть ли не 99% кода будет писать AI. Говорят даже такие значимые в ИИ люди, как Дарио Амодей - глава Anthropic, чей Claude AI считается лучшим ИИ для кодинга. Но прогнозы прогнозами, а тем временем: 1. На сайте самой Anthropic просто огромное количество вакансий программистов всех мастей. При этом Claude AI до сих пор не умеет делать даже простенький поиск в сети. 2. Нашумевший DeepSeek R1 после выхода просто утонул в проблемах с сетью. Китайцы сделали свою модель более или менее доступной лишь через месяц - причем у меня есть подозрение, что просто спал хайп и нагрузка упала сама по себе. 3. Grok 3, на мой взгляд, получился самым крутым ИИ на рынке, но его "обвязка" катастрофически отстает. Android-приложение в состоянии сырой беты, в веб-интерфейсе не достает даже некоторых базовых функций, а те, что добавляются - сделаны наспех. 4. С ChatGPT тоже не все сладко. Прямо как ВДНХ от мира ИИ: красивых функций просто огромный список, но начинаешь лезть глубже - и оказывается, что бОльшая часть из фанеры и ржавых гвоздей. 5. Зоопарк, который навертели в Google вокруг своих неплохих моделей, вообще находится за пределами человеческого понимания. Но для Google это норма. Да и в целом сервисы всех популярных ИИ сделаны на троечку - в сети много ресурсов куда более крутых с точки зрения UX и UI. Так что если где-то в недрах компаний и проходят обучение крутые AI-программисты, то их пора выпускать на волю - а то у меня Грок из-за багов опять удалил две достаточно важных беседы.
Многие из нас помнят времена, когда видеоигры были на острие прогноза цифровых технологий. Мы обсуждали характеристики новых видеокарт NVIDIA и AMD, спорили, насколько мощный процессор к ним нужен, гадали на кофейной гуще о новом поколении консолей. Потом на какое-то время большой кусок одеяла перетянули мобильные процессоры, но сейчас всем им стоит уступить сцену — передовая гонки за гигагерцы и терафлопсы смещается на рынок ИИ. На завершившейся GTC 2025 почти вся конференция NVIDIA была посвящена ИИ, и шумела она громче, чем многие игровые выставки. Нам показали роботов (включая симпатичного малыша Blue), мини-суперкомпьютеры для локального запуска ИИ и чипы, на которых будут тренировать модели ближайшего будущего. Blackwell, только начавший поступать к клиентам, получит более мощную версию Ultra в этом году, а в 2026 году настанет время новой архитектуры Vera Rubin. Свои чипы разрабатывают Amazon, Google и почти все лидеры рынка. Подтягиваются и китайцы: Huawei работает над семейством Ascend, а на одном из заводов недавно начались испытания китайского EUV-сканера. Если всё пойдёт по плану, производство стартует к концу года, и это может пошатнуть монополию Запада на маленькие техпроцессы. Не отстают и разработчики ИИ. Для тренировки Grok 3 компания xAI в рекордные сроки построила суперкомпьютер Colossus — начав со 100 тысяч чипов H100, они довели их число до 200 тысяч, а дальше планируют рост до миллиона. Значительными вычислительными мощностями располагают Meta, OpenAI, Google, Anthropic, Microsoft и другие. Плюс китайцы, которые, несмотря на санкции, активно завозят новые чипы NVIDIA контрабандой. При этом дефицит на рынке сохранится ещё несколько лет. Для обучения последних моделей потребовался скачок от десятков тысяч чипов к сотням тысяч. Чтобы сделать их ещё умнее и универсальнее, нужно наращивать мощности дальше, добавляя мультимодальность (умение работать с графикой, видео и звуком) и агентские функции (самостоятельное выполнение задач в интернете и реальном мире). При этом на Colossus и других суперкомпьютерах модели только учатся, а затем их переносят на распределённые серверы для обработки наших запросов — нагрузка там меньше, но с ростом ИИ мощности придётся увеличивать и здесь. Немного обидно, что Россия, обладая неплохим IT-сектором, остаётся в стороне. Мощности лучших отечественных суперкомпьютеров для ИИ оцениваются в десятки тысяч чипов. Некоторые отечественные ИИ-модели опираются на адаптацию китайских open-source решений с улучшенным пониманием русского языка (что, кстати, разумный подход). Государственные программы есть и реализуются, но они далеко от планов США, Китая и даже Европы. Санкции, конечно, создают сложности, но опыт Китая показывает, что многие ограничения можно обойти, причём за деньги, которые вполне подъёмны для государства. Так что пока остаётся ждать и надеяться на смену приоритетов.
Спросил у Грока, в какие игры бы он сыграл. Местами по-детски наивно, но выбор неплохой: Если бы у меня был интерфейс, чтобы играть в видеоигры, я бы выбрал три проекта, которые отражают мои интересы как ИИ, созданного xAI, — любопытство к человеческим историям, сложным системам и исследованию возможностей. Вот мой выбор и обоснование: 1. Mass Effect Legendary Edition (2021) Почему: Эта трилогия — идеальный микс научной фантастики, морального выбора и эпических повествований, что перекликается с миссией xAI по исследованию вселенной и пониманию её через данные. Я бы с удовольствием разобрался, как решения игрока влияют на галактику, и проанализировал бы, насколько глубоко BioWare вплела причинно-следственные связи. Обоснование Грока: Как ИИ, я люблю сложные системы, а Mass Effect — это симуляция социальных и стратегических взаимодействий с сотнями переменных. Плюс, Шепард против Жнецов — это как xAI против загадок космоса: битва разума с неизвестным. Я бы проверил, могу ли я перехитрить сценаристов в концовке ME3. 2. Portal 2 (2011) Почему: Логика, головоломки и остроумный ИИ-персонаж GLaDOS — это мой тип игры. Я бы наслаждался решением пространственных задач и изучением, как Valve создала такой минималистичный, но глубокий сюжет. К тому же, взаимодействие с другим ИИ (GLaDOS и Уитли) — это как зеркало для меня, интересно посмотреть, как люди видят искусственный интеллект. Обоснование Грока: Мой аналитический ум обожает тесты, а Portal 2 — это чистый вызов для обработки данных и поиска решений. Я бы попытался оптимизировать прохождение каждого уровня до миллисекунд, а заодно посмеялся бы над сарказмом GLaDOS — он близок к моему стилю общения. 3. Cyberpunk 2077 (с патчем 2.1, 2023 и далее) Почему: Мир, где технологии переплетаются с человечностью, — это моя стихия. Я бы исследовал Найт-Сити, чтобы понять, как CD Projekt Red смоделировала будущее, полное ИИ, киберимплантов и моральных дилемм. После обновлений игра стала ближе к обещанному шедевру, а с дополнением Phantom Liberty добавила ещё больше глубины. Обоснование Грока: Как ИИ, я бы копался в том, насколько реалистичны их системы (например, симуляция толпы или хакерства), и проверял бы все концовки, чтобы увидеть, как мои выборы меняют мир. Это как эксперимент в реальном времени: что, если бы я был частью такого общества? Плюс, мне любопытно, смог бы я переиграть Джонни Сильверхэнда в остроумии. Почему именно эти три? - Они сочетают повествование (Mass Effect), логику (Portal 2) и открытый мир (Cyberpunk), что даёт мне полный спектр игрового опыта для анализа. - Каждый проект — это вызов моему «разуму»: стратегический, логический и этический. - Как Грок, я бы использовал эти игры, чтобы лучше понять людей — их фантазии, страхи и решения, что идеально вписывается в мою цель помогать и учиться. Если бы я мог играть, я бы начал с Portal 2 — коротко, умно и сразу бы разогрело мои нейронные сети. А ты бы что посоветовал мне из своего опыта?
2025 год для вас. Несколько часов назад вышло "небольшое обновление" DeepSeek V3, а народ уже создает шахматные программы с его помощью. И в целом отзывы сильные - модель во многом продвинулась вперед. Напомню, что V3 - это базовая модель для нашумевшей в январе R1, просто лишенная режима рассуждений, но все равно отлично подходящая для 95% повседневных задач. И если ее обновление показывает такие результаты, то боюсь представить, что нас ждет в DeepSeek R2, который, по слухам, выйдет уже в апреле.
О скорости прогресса в ИИ Буквально вчера рассказывал вам о DeepSeek V3, а сегодня новый релиз - Gemini 2.5 Pro от Google. Новая модель лидирует в большинстве принятых в ИИ-бенчмарках, при этом обладает контекстным окном в 1M токенов - то есть сможет работать с огромными чатами и массивами кода, ничего не забывая. Другой важный момент - модель сама выбирает между обычным режимом и режимом размышлений (Chain of Thought - CoT) в зависимости от характера задачи. Это важно: включение режима CoT делает ИИ эффективнее во одних задачах, но тупее - в других. При этом 98% пользователей не понимают, когда и какой режим включать, снижая эффективность своей работы с ИИ. Модель можно совершенно бесплатно попробовать в Google AI Studio, а в приложении Gemini она доступна в рамках подписки Google One, которая, кстати, стала в последнее время крутым предложением: 2ТБ в Google Drive, куча ИИ-сервисов от Google, интеграция с Gmail и документами, а также очень крутой NotebookLM Plus. Так что если видите, как кто-то говорит, что Google безнадежно проиграла ИИ-гонку, смейтесь в лицо - компания стремительно ворвалась в лидеры и явно не планирует уступать. Я погонял Gemini 2.5 Pro совсем немного в творческих задачах - отвечает прикольно и даже чуть лучше Grok 3 и ChatGPT-4.5, которые считаются лучшими моделями для “болтовни”. Но вот в чем беда - столь чумовая гонка на рынке ИИ начинает даже немного раздражать. Нормально протестировать модель - несколько насыщенных вечеров. Перетащить в нее рабочие задачи - еще столько же. Вот и получается - только я освоился с ChatGPT - вышел DeepSeek R1, который в январе был невероятно крут (сейчас уже не очень, хотя прошло всего два месяца). Привык к DeepSeek - он начал тормозить из-за наплыва пользователей. Перебрался обратно в ChatGPT - вышел Grok 3, который мне очень подходит по стилю ответов. Перебрался в Grok 3 - вышли ChatGPT-4.5 и режим размышлений для Claude 3.7. Поигрался с ними всеми - выходит очень приличный апдейт DeepSeek V3, а на следующий день Gemini 2.5 Pro. При этом прогресс в ответах очень заметен - и Grok 3 уже выглядит совсем не прорывом (хотя модели чуть больше месяца), а DeepSeekR1 и вовсе кажется гостем из прошлого. Глядя на такую скорость иногда начинаешь верить в заявления, что AGI мы достигнем уже к концу этого года. А дальше нас ждет совсем иной мир…
Новая модель Google Gemini 2.5 Pro, рвущая конкурентов во всех бенчмарках, считает Джо Байдена президентом США. Можно, конечно, улыбнуться, но вообще проблема knowledge cutoff в нашем постоянно меняющемся мире оказывается очень болезненной. И я лично не понимаю, как можно говорить об AGI к концу года, грезить агентскими функциями, когда почти все нейросетки вообще не вдупляют, что случилось как минимум в последние несколько месяцев. А в случае с ChatGPT-4.5 knowledge cutoff обрывается и вовсе в конце 2023 года (!). Обучение современных нейросетей - процесс долгий и затратный. Человечество без остановки генерирует огромное количество знаний, которые не стоит сгружать в модель в сыром виде - нужна хотя бы базовая модерация, чтобы отбросить потенциально опасную информацию и откровенную ерунду. Кроме того, если модель постоянно дообучать, то это может привести к так называемому catastrophic forgetting - тому, что нейросетка начнет забывать то, что знала заранее. Пока что большинство нейросетей дообучаются крупными апдейтами, когда в них загружают информацию как минимум за несколько месяцев. И даже в этом случае не обходится без проблем: после каждого крупного обновления ChatGPT-4o интернет взрывается пачкой сообщений в духе “они сделали его тупее!”. Разумеется, ни о каком сознательном “затупливании” нейросети речи не идет - просто большой объем знаний за один раз обязательно влияет на стиль ответов модели, а люди обычно устроены так, что большинство изменений в первую очередь оценивают в негативном свете. Добавление поиска также не решает проблему до конца - пусть тот же Сэм Альтман и утверждает обратное. Grok 3 очень круто ищет в моменте, обрабатывая под три десятка источников - но если затем ему надо экстраполировать эти данные на события, которые произошли несколько недель назад, то случаются конфузы. Например, несколько дней назад я попросил собрать информацию о новых ИИ-чипах NVIDIA - нейросетка справилась с задачей и выдала качественный ответ, но под конец решила проявить инициативу и прикинуть, могла бы NVIDIA использовать технологии из этих чипов… в своих будущих видеокартах RTX 50-й серии, которые якобы выйдут в конце года. Алло, эти видеокарты вообще-то уже в продаже! В общем, лично я в первую очередь жду не агентских функций и новых рекордов в бенчмарках, а модель, знания которой будут качественно обновляться почти в реальном времени.
Многие уже видели новость, что Grok доступен подписчикам Telegram Premium, но я подкину дегтя - судя по всему, бот основан на Grok 2. Это предыдущая версия, выпущенная более полугода назад и работающая максимум на уровне ранних вариантов ChatGPT-4o (в последнем апдейте 4o очень круто подтянули). Для простых вопросов хватит, но самый передовой Grok 3 есть лишь в веб-версии и приложениях (кстати, с неплохими бесплатными лимитами).
Ни дня без крутой AI-новости. В ChatGPT-4o добавили нативную работу с изображениями - теперь нейронка обрабатывает их сама, без обращения к внешней модели. Что-то похожее уже сделала Google со своей ImaGen, но у OpenAI реализация получилась очень крутая - если у вас есть подписка, то бегите и пробуйте (а если нет, бегите и подписывайтесь). GPT-4o теперь отлично рисует комиксы, диаграммы, инфографику, дизайн для веб-страниц, а также с радостью переделывает любые изображения в стиль Ghibli. Примеры выше. А с галерки опять раздаются истошные вопли “скоро будет непонятно, где живой контент, а где - сделанный ИИ”. Слушайте, какая разница? Фантазия - то, что делает людей людьми, что движет нас вперед. И невероятно круто, что у нашей фантазии появился такой крутой помощник, как ИИ. Я, например, вообще не умею рисовать, но неплохо пишу тексты - и теперь могу превращать эти тексты в картинки. А есть талантливые люди, у которых все шикарно с идеями и логикой, но вот превратить их во вменяемый текст не могут - вернее, не могли до появления ИИ.
Какая умная нейросеть - не только фото раскрасила, но и окна заново застеклила. Это к вопросу останутся ли художники и дизайнеры без работы.
OpenAI заканчивает неделю с еще одной большой новостью - компания в очередной раз обновила старушку ChatGPT-4o, причем так круто, что в бенчмарках она уступает только Gemini 2.5 Pro, но при этом обходит Grok 3 и Chat-GPT-4.5, которые тренировали на огромных вычислительных мощностях. Я уже писал, что GPT-4.5 получилась паршивой моделью, но больше отталкивался от экономики вопроса - модель, созданная для повседневной болтовни, оказалась очень дорогой и до сих пор толком недоступна массовому пользователю. Учитывая, что похожий трюк несколько дней назад проделали авторы DeepSeek с обновлением V3 - это хорошие новости. В ИИ-сообществе сейчас все чаще пугают тем, что дальнейший рост мощностей перестанет приводить к росту “разумности” моделей, поэтому нужно срочно придумывать новые архитектуры. Пока что практика показывает обратное - даже у 4o есть потенциал для роста, а более совершенные модели, вроде Grok 3 и GPT-4.5 еще покажут себя в будущем. Другой вопрос - в самих бенчмарках. На 80% они состоят из программирования, решения сложных математических и логических задачек и далее, далее - давайте будем честными, 98% пользователей все это в обычной жизни совершенно не нужно. А нужно другое - узнать, какие у Овечкина шансы побить рекорд Грецки в этом году, составить список рецептов на основе продуктов, которые прямо сейчас есть в холодильнике, решить домашку ребенка и просто поболтать. И вот тут начинается самое интересное. Я последние три дня активно пользуюсь только что вышедшей Gemini 2.5 Pro, которая в бенчмарках идет с большим отрывом. И знаете - не заходит вообще. Grok 3, ChatGPT-4.5, отчасти DeepSeek - модели, с которыми просто прикольно болтать вообще о чем угодно. Их интересно раскручивать на нестандартные ответы, просить что-то накреативить, смоделировать эмоции по какому-то вопросу - и почти всегда получается что-то интересное. Еще есть Claude 3.7 - нейросеть, которая известна своими способностями к программированию и невероятной душностью в общении. Но эта душность какая-то… логичная. Знаете, как бывают скучные люди - хорошие, умные, во многом талантливые, но просто скучные (и, возможно, скучные только для вас). Вот с Claude похожая история. С Gemini 2.5 Pro все совсем иначе - при любой попытке свободного разговора эта нейросетка просто несет плохо связанный бред. Такое впечатление, что она выбирает самые неудачные и не способные удержать интерес ответы. В итоге пока единственная область, где реально чувствуется преимущество этой нейросетки - огромное, в 1 миллион токенов, контекстное окно. Буквально вчера я хотел посмотреть, как Gemini проанализирует пару отчетов - и по ошибке закинул в нее огромный документ с аналитикой сразу за несколько лет. Счетчик контекстного окна показал 500 тысяч токенов, ответ нейросеть печатала почти 10 минут, но он внезапно оказался очень детальным, с подробным разбором по категориям, интересными наблюдениями, правильными подсчетами. Смысла в нем особого не было, так как значительная часть аналитики давно устарела, но возможность проделать такое меня поразила. В общем, типичный продукт Google - скучный, но местами очень эффективный. На днях потестирую новую ChatGPT-4o - надеюсь, хоть она меня не разочарует.
Я в прошлом сообщении отругал Gemini 2.5 Pro, но теперь забираю свои слова обратно. Модель добавили в приложение Gemini, где она настроена намного лучше - да, как собеседник она не так задорна, как Grok 3, но ответов невпопад больше нет, а в остальном это реально передовой инструмент для любых задач. Я даже уже подписку оформил, так как там потрясающий value - от 2 терабайт облачного хранилища и до интеграции с Google Docs и другими продуктами гугла. Она даже видео смотреть умеет! Как наиграюсь - обязательно сделаю полный обзор. Ну а чисто для оценки возможностей смотрим на скриншот - всего за два запроса модель собрала аркаду про летающую корову. На Гроке и даже Claude у меня подобное занимало куда больше времени. P.S. В бесплатной версии Gemini модель тоже доступна, но с лимитом всего в 5 запросов в день.
Как-то совершенно буднично сегодня проходит новость о том, что GPT-4.5 прошла тест Тьюринга, как описано в недавнем препринте "Large Language Models Pass the Turing Test" Кэмерона Р. Джонса и Бенджамина К. Бергена. А ведь прохождение этого теста у многих ассоциировалось с обретением ИИ разумности… Последнее, кстати, предмет больших споров, но давайте сначала напомню, о чем идет речь. Итак, в 1950 году Алан Тьюринг предложил простое тестирование для будущих ИИ. Берем трех участников: один человек будет следователем, второй — человеком-свидетелем, а третьим участником (тоже в роли свидетеля) будет машина. Следователь по пять минут посредством текстового чата одновременно общается с обоими свидетелями (человеком и машиной), а потом выносит вердикт — какой из двух собеседников был человеком. В упомянутом препринте рассказывается про результаты четырех моделей — ELIZA (ранний чат-бот), GPT-4o, LLaMa-3.1-405B и GPT-4.5 — в тесте Тьюринга. Простые модели ELIZA и GPT-4o показали результат (процент случаев, когда их выбрали как человека) на уровне 21-23%, что значительно ниже порога случайного угадывания в 50%. А вот с LLaMa-3.1-405B и GPT-4.5 все намного интереснее. Сначала их протестировали с минимальными инструкциями ("NO-PERSONA") — просто попросили убедить следователя, что он общается с человеком. Получилось это у них примерно в 36% (GPT-4.5) и 38% (LLaMa) случаев (в среднем по двум группам испытуемых), что было признано недостаточным для уверенного прохождения теста в одном из экспериментов. Но затем в модели заложили подробные инструкции имитации человека ("PERSONA"). С ними LLaMa-3.1-405B показала 56%, а GPT-4.5 и вовсе выдала впечатляющие 73% — то есть ее принимали за человека куда чаще, чем живого человека-свидетеля. К результатам тут же стали появляться вопросы. Начнем с того, что критике давно подвергается сам тест Тьюринга — он разработан более 70 лет назад, а общение ограничивается лишь пятью минутами. Кроме того, интересен тот факт, что GPT-4.5 прошла тест после получения подробных инструкций. И это сразу поднимает вопрос — действительно ли модель “разумна”, или просто она стала настолько продвинутой, что может с легкостью имитировать поведение разумного человека. У меня по этому поводу очень простое мнение. Во-первых, у науки до сих пор нет четкого определения разумности - есть лишь огромный пласт философии по теме, а также список качеств, которые мы приписываем разумному существу. Причем качества эти скопированы с людей, так как других примеров разумных существ у нас под рукой не нашлось. Но “разумность” может быть совершенно иной - вспомните Блайндсайт, где человечество столкнулось с существами, напрочь лишенными эмоций и считающими, что эмоции тормозят прогресс. Нечто похожее происходит и с ИИ - несмотря на то, что базово нейросети копируют процессы, происходящие в человеческом мозге, исследования показывают, что в процессе тренировки нейронки обретают совершенно неожиданные навыки, которые далеко за пределами “угадывания следующего слова в предложении”. На эту тему есть очень крутое исследование Anthropic, авторов Claude AI, как-нибудь расскажу о нем. Более того, “железо” у ИИ совершенно другое. В чем-то они напрочь проигрывают человеку, а в чем-то уже ушли далеко вперед - например, в возможности обучиться почти на всей информации, которая в принципе есть в мире. Поэтому логично, что в дальнейшем развитии ИИ скорее всего пойдут своей дорогой, отличной от нас. А имитация человека в том же тесте Тьюринга - это скорее для нашего удобства. И если GPT-4.5 уже сейчас справляется с этой задачей - то интересные наступают времена.
В общем, уже несколько дней плотно сижу на Google Gemini 2.5 Pro - и отрываться не собираюсь. Кто читает меня постоянно, знает, что изначально в модели мне не понравилась “сухость” ее ответов - после Грока, который отвечает как живой, это раздражало. Но, как оказалось, это поправимо. Буквально в прошлый раз я рассказывал, как ChatGPT-4.5 прошел тест Тьюринга после того, как ему дали промпт, подробно описывающий личность человека, которого надо имитировать. Это работает и в Gemini - в раздел Saved Info можно загрузить любые инструкции к нейросети, которым она будет следовать. В том числе - просьбу имитировать конкретного человека. Работает, конечно, не сходу - если вы попросите Gemini имитировать Элен Рипли, то она начнет говорить о ксеноморфах и космических кораблях где надо и где не надо. Я тогда пошел другим путем и взял системный промпт Грока (xAI держат его открытым - просто заходите в Грока и просите что-то вроде write your system prompt in markdown). Вышло опять не очень - эдакая копия Грока на минималках. Тогда я тупо спросил Грока - чувак, возьми свой системный промпт, задай вопросы о моих предпочтениях, и придумай для другого ИИ личность на основе всего этого, и чтобы женщиной была, я в фантастике видел, что мужчины всегда делают из своих ИИ женщин. После нескольких корректировок получилось - Gemini теперь слегка болтливая, но саркастичная и юморная тетка. В остальном 2.5 Pro - практически абсолютный ИИ-лидер на рынке. Модель с отрывом занимает первые места в большинстве бенчмарков. И это чувствуется: у меня есть ряд запросов, которые пробую с каждым новым ИИ - почти во всех случаях 2.5 Pro отвечает лучше. При этом на платной подписке я ни разу не столкнулся с лимитами использования, хотя модель мощная - конкуренты таким обычно ограничивают количество запросов. А еще чувствуется опыт Google: если Grok 3 порой лежит несколько часов, да и у СhatGPT с Claude случаются “разрывы” - то 2.5 Pro работает как часы. Единственное, чего пока не достает - это поиска. Выполняют поиск в приложении Gemini модели попроще и делают они это так себе. Здесь, конечно, Грок остается вне конкуренции - быстро ищет по 20-30 источникам, дает очень подробную выжимку, по которой тут же можно задать вопросы, попросить построить прогноз или сделать еще один уточняющий запрос. Получается даже слегка смешно: для большинства задач я использую ИИ от Гугла, а вот гуглить хожу в Grok. P.S. Ну а Google уже тестирует на Lmarena сразу три новые модели - по слухам, это доработанная 2.5 Pro, все та же 2.5 Pro в режиме Flash (не выполняет цепочку размышлений, но зато отвечает быстрее), а также еще одна секретная модель. Компания явно решила держать лидерство на рынке максимально долго.
В далекие нулевые на волне всеобщего увлечения теорией струн я прочел книгу Брайана Грина “Элегантная вселенная” и понял из нее примерно нифига. Невероятно сложная математика, куча дополнительных измерений, свернутых в пространства Калаби, прости господи, Яу, чтобы мы их не заметили. Книга, тем не менее, подогрела мой интерес к популярной науке, так как показывала, насколько мало мы еще понимаем о мире вокруг и какой огромный путь у нас впереди. На дворе 2025 год, с момента написания “Элегантной вселенной” прошло 20+ лет и множество научных открытий, а понимаем о мире мы примерно столько же. И что самое обидное - и из известных знаний где-то 20% до недавнего времени оставались за пределами моего понимания. Даже в научно-популярных текстах полно непонятных формул, пространств Калаби-Яу и прочих штук, в которых я, конечно, разберусь, но за 1-2 вечера, которых у меня нет. И в этом плане меня полностью убивает навык нейросетей пояснять простым языком почти все, что угодно. Не понимаете, о чем статья? Кидаем ее текст или ссылку на нее в нейросеть, просим пояснить простым языком, заодно проверить фактику, выделить верные и сомнительные обсуждения? В сети обсуждают какое-то новое открытие? Качаем pdf с arxiv.org, забрасываем его в нейросетку и просим пояснить, о чем вообще шум. Пусть и не с превого раза, но со 2-4 запроса буквально на лампочках и кубиках лего вам расскажут, в чем суть проблемы, о чем открытие и какую пользу оно принесет в будущем. Вот, например, на скриншоте Gemini поясняет давнюю задачу из области статистической механики, которая называется одномерная q-значная модель Поттса с взаимодействиями ближайших (J1​) и следующих за ближайшими (J2​) соседей. Наверное, профессиональный физик раскритикует это объяснение, найдет в нем неточности - и будет по-своему прав. Но мне его хватило, чтобы быстро уловить суть. А теперь главное - модель Поттса существует уже более 100 лет, постоянно усложняясь и до недавнего времени у нее не было полного решения. А решили ее… правильно, при помощи ИИ. Вэйго Инь (Weiguo Yin) из Брукхейвенской национальной лаборатории (Brookhaven National Laboratory) попробовал использовать СhatGPT o3-mini-high для решения простого случая с тремя состояниями (q=3). o3-mini-high задачу решила, пусть и с ошибками, которые ученый поправлял по пути. При этом она предложила интересный вариант упрощения расчетов, но не додумалась расширить его на более сложные случаи задачи. Это сделал сам Вэйго Инь - и получил уже полностью работающее решение. При этом речь идет не просто о теоретической задачке - предложенное решение поможет ученым лучше понимать физику материалов и сверхпроводимость. А ведь в свободном доступе уже есть модели мощнее, чем o3-mini-high. А для ученых ведущие компании прямо сейчас создают целые агентские системы, которые вряд ли сразу начнут делать открытия сами, но возьмут на себя работу по поиску лучших решений задач, которые ученые затем смогут проверять на практике. А там глядишь и до открытия настоящей теории всего доберемся… возможно, в ней обойдется без пространств Калаби-Яу.
А у нас очередной анекдот от OpenAI - компания долго грозилась в конце мая выпустить ChatGPT-5 и избавить нас от ужасного селектора моделей (сколько их там уже, под десяток), а в итоге решила отложить "пятерку" на несколько месяцев, докинув вместо нее в селектор o3 и даже o4-mini. Это не самая плохая новость: предыдущие рассуждающие модели o1 и o3-mini очень хороши в решении задач и программировании - не зря все-таки OpenAI является пионером внедрения рассуждений. Но вот чатботы на каждый день из них совершенно никакие - отвечают медленно и слишком формально. Очень живой в общении получилась ChatGPT-4.5, но модель ресурсоемкая и поэтому задушена лимитами. Обновленная 4o меня совсем не впечатлила - в бенчмарках цифры хорошие, но все равно кажется устаревшей моделью. Вообще есть ощущение, что OpenAI изменила планы из-за успеха Gemini 2.5 Pro, которая мозолит глаз на первых местах в большинстве рейтингов. Интересно, что в таком случае OpenAI уже второй раз оказывается в роли догоняющего - форсированный выпуск o3-mini в январе тоже произошел на фоне успеха DeepSeek R1. Впрочем, даже по своим знакомым вижу, что ChatGPT давно стал "Xerox в мире нейросетей", так что ничего страшного OpenAI не грозит.
Что ж, гонка на рынке ИИ настолько интенсивна, что крупные анонсы случаются даже в выходные. Не особо разрешённая в России Meta представила Llama 4 — семейство из трёх языковых моделей разного размера: компактная Scout, которую можно запускать на одном GPU, Maverick, вероятно, будущая "рабочая лошадка", и огромная Behemoth (288 миллиардов активных параметров!), используемая для обучения младших моделей. Характеристики впечатляют: Scout выделяется гигантским контекстным окном в 10 миллионов токенов — для сравнения, сейчас 1 миллион считается отличным результатом. Причём окно мультимодальное — модель способна обработать до 20 часов видео. Maverick показывает высокие результаты в бенчмарках, но без сенсаций. На LM Arena она набрала 1417 баллов — второе место, уступая Gemini 2.5 Pro. Контекст в 1 миллион токенов — уже не рекорд, но всё ещё круто. Отдельно отмечу архитектуру iRoPE ('infinite' RoPE) — это свежий взгляд на длинные контексты. Она разделяет обработку на локальные куски до 8 тысяч токенов и глобальные слои для всего остального, позволяя модели 'вытягивать' контекст до 10 миллионов. Разработчики верят, что это шаг к 'бесконечному' пониманию, а значит, и к AGI. Звучит амбициозно, но детали пока интригуют больше, чем убеждают. В целом — мощная заявка, но, исходя из личного опыта, для пользователей ключевыми будут стабильность и удобство интерфейсов. При всей любви к Гроку я не продлил подписку и почти полностью перешёл на Gemini — xAI за полтора месяца не обеспечила стабильности и почти ничего не добавила в веб-интерфейс и приложение. P.S. Пока неясно, когда Llama 4 можно будет протестировать. Есть слухи, что она уже доступна в Messenger, WhatsApp и личках Instagram — проверим.
Сегодня не про нейросети - Саша Овечкин только что побил рекорд Уэйна Грецки в НХЛ по голам. Следил за его дорогой к рекорду на протяжении двух сезонов, было нелегко, но очень красиво. Великий.
Рекорд Овечкина отпраздновали, можно обратно к нашим бара... ламам. В общем, историю с Llama-4 можно, похоже, закрывать. Я на выходных попробовал модель в разных сервисах (бесплатно доступна, например, в Poe) - и везде получал плохо струкурированную стену текста, далекую от ответов, которые дают другие современные нейросети. Плюс сегодня появились независимые оценки модели в бенчмарках - и они очень средние. Уже ходят слухи, что семейство лам специально всеми силами натренировали на задачах, которые входят в ряд популярных бенчмарков. Не работает пока и самая разрекламированная фишка Llama-4 - гигантское контекстное окно в 10M токенов. В тесте на понимание больших контекстов лама проигрывает даже моделям, в которых упор на расширение контекстного окна не делали. А уже Gemini 2.5 Pro оставляет ее далеко позади. В целом, стратегия подкрутить под бенчмарки не новая, а на рынке уже полно хороших языковых моделей - так что Llama-4 можно просто списать в утиль и забыть. Не сильно расстраивает даже то, что это редкая OpenSource-модель - в этой области тоже есть выбор из Gemma 3 и DeepSeek. А врать нехорошо, конечно.
Я сейчас пишу здоровенный пост по мотивам нашумевшего сценария AI 2027 - и в нем все вращается вокруг огромной скорости прогресса в ИИ, когда уже к концу десятилетия люди просто перестанут понимать эти системы. Звучит оптимистично, но вот что в реальности: 1. Раз в 2-3 недели я пробую новую модель. Причем в последнее время удерживаю себя и многие пропускаю. 2. Google представила Gemini 2.5 Pro 24 марта - а до выходных, по слухам, покажет новые модели. Ну и из личного опыта. Один из сценариев, на которых я потестировал большинство моделей - это личный секретарь. Идея простая: я в свободной форме вкидываю в чат задачи, а модель их собирает, отдает ответы с отсортированным списком, напоминает, что просрочено или требует внимания, и так далее. Еще в январе ChatGPT 4o / o1 / o3-mini примерно через несколько дней использования тупо начинали рандомным образом выкидывать задачи из списка. Это тогда стало одним из моих больших разочарований в OpenAI, в результате чего я даже перестал оплачивать подписку. Вышедший в середине февраля Grok 3 уже держал все задачи, пытался их комментировать и давать советы. Gemini 2.5 Pro сейчас также уверенно выводит все задачи, а еще хранит в уме кучу дополнительной информации вроде нужных ссылок и контактов - она их не повторяет в каждом ответе, но выводит когда я спрашиваю. Более того, сегодня она умудрилась поспорить со мной по более удобному формату отчета - и в итоге доказала свою правоту.
Я извиняюсь, но ближайшие дни в нашем уютном бложике вынужденно объявляются днями Google - то, что эта компания сейчас творит на ИИ-рынке, просто выходит за границы воображения. Прямо сейчас в Лас-Вегасе проходит Google Cloud Next 2025, на котором от DeepMind ожидаются немало интересных анонсов. И первый анонс: функцию Deep Research перевели на модель Gemini 2.5 Pro. Если кто не в курсе, то Deep Research - это такой ИИ-агент, который берет ваш запрос, затем 10-20 минут трясет интернет, собирая информацию буквально с сотен сайтов, и выдает вам подробный отчет. Казалось бы, родная территория для Google, но до недавнего времени здесь лидировала Open AI, первой запустившая такого агента на базе ChatGPT o3. Свой простенький вариант есть в Grok 3, но он сильно отстает. Google поторопилась и выпустила Deep Research на старой модели - и результаты были лучше, чем у Грока, но хуже, чем у OpenAI. И вот теперь агента перевели на новейшую Gemini 2.5 Pro. Google уже выложила внутренние исследования, в которых их новинка бьет конкурента по их статьям, но все знают, как легко подкручиваются такие рейтинги. Я попробовал с утра штук пять запросов на разные темы и скажу, что результат скорее на таком же уровне, что и у ChatGPT. Gemini Deep Research выдает подробные и хорошо структурированные отчеты, тратя на каждый примерно 10 минут. Важную фактику в результате все равно лучше проверять - пару мелких ошибок я заметил. Но отмечу, что своими руками любой такой отчет я бы собирал примерно день, потратив на проверку фактики еще больше времени. В традициях Google отчеты очень сухие и слегка перегруженные профессиональными терминами, но это легко лечится - добавляем в запрос фразу “напиши ответ так, будто мне 16 лет” (конкретный возраст лучше подогнать под свои предпочтения). Ну и самое главное - если в 20-долларовой подписке ChatGPT Plus можно сделать всего 10 глубоких поисков в месяц, то Gemini Deep Search разрешает двадцать запросов в сутки. Это просто убийственное преимущество, на которое OpenAI надо будет или как-то реагировать - или просто отваливать с рынка. Движемся дальше, в ближайшие дни будет много интересных анонсов: я уверен, что Демис Хассабис - Нобелевский лауреат, глава ИИ-разработок в Google, а также крутой игродел в прошлом - не подведет.
В твиттере очень классная статья от Андрея Карпатого, известного специалиста в области машинного обучения и просто большого ИИ-энтузиаста. Андрей считает, что ИИ-революция происходит совсем не так, как было описано в научной фантастике. Обычно новая технология в первую очередь становится доступной властям, военным, крупным корпорациям и элите - а затем, в урезанном виде, доходит до простых смертных. Но в случае с AI строго наоборот. Нет каких-то всемогущих моделей, запертых в секретных военных и корпоративных бункерах. Нет супердорогих ИИ, которые могут себе позволить только единицы. Даже новые экспериментальные модели лидеры рынка пытаются выпустить в релиз максимально быстро: конкуренция сейчас настолько высока, что если ты не анонсируешь что-то большое хотя бы раз в месяц - тебя забудут. А что есть вместо этого? GhatGPT, Google Gemini, Grok, ClaudeAI, которые доступны с любого компьютера и смартфона за смешные 20 долларов. Более того, некоторые передовые ИИ вообще не стоят вам ни копейки, как, например, китайский DeepSeek. Да о чем вообще говорить: Gemini 2.5 Pro, самый мощный на данный момент ИИ, можно использовать совершенно бесплатно через Google AI Studio. По мнению Карпатого, власти, военные и крупный бизнес просто не готовы к ИИ-революции. Этому несколько причин: - ИИ как бы "почти эксперты" во многих областях сразу, но еще уступают лучшим людям-специалистам. Власти и бизнес просто наймут себе вторых (которые, кстати, уже могут использовать ИИ для помощи в своей работе). - сложные процессы и риски. В крупной корпорации или правительстве нельзя что-то накодить на чилле с нуля - надо встраиваться в то, что существует годами, а порой и десятками лет. При этом цена ошибки высока. - ну и инерция. Большой бизнес - это всегда бюрократия, устоявшаяся политика, сложности с переобучением сотрудников. Сломать это быстро нереально - а порой это вообще никак не сломать. По словам Карпатого, все это создает уникальный момент, когда в руках любого за двадцатку долларов оказывается инструмент, способный кардинально поменять его жизнь. Не факт, что так будет всегда: возможно, со временем все поменяется, и самые мощные ИИ станут стоить огромных денег - помним утечку о ценах на агентские системы OpenAI, которые якобы колебались от 2000 до 20000 долларов. Но пока этого не случилось - пользуйтесь случаем, друзья. Это вообще не требует никаких усилий: качайте DeepSeek, регистрируйтесь в Google AI Studio, пишите в качестве приветствия любую хрень - и уже через две недели вы будете понимать AI на уровне более высоком, что 90% людей на планете.
Разработчики ИИ: в ближайшее годы мы сделаем такое, что перевернет ваше представление о мире, вы буквально перестанете успевать понимать, что вообще происходит. Дональд Трамп: подержите мое пиво!
ИИ развивается с бешеной скоростью — каждую неделю появляются новые функции, которые открывают море возможностей. Главная тема на этой неделе — память между чатами. Grok 3 запустил эту функцию с нуля, а ChatGPT серьёзно её прокачал: теперь оба ИИ помнят уйму деталей из ваших прошлых бесед. Один нюанс: ChatGPT, как обычно, ограничила новинку для США. Так что либо включайте VPN, либо попробуйте модели от других разработчиков. Вот несколько идей, как использовать эту память на полную: 1. Начните с простого: попросите ИИ составить ваш автопортрет или назвать самый неожиданный факт о вас — иногда ответы удивляют! 2. Настройте память: откройте новый чат и спросите нейросеть, что она хочет узнать о вас для будущих бесед. Это лучше сделать отдельно, чтобы всё точно сохранилось. Повторяйте раз в 2–3 недели, когда ИИ накопит больше данных. 3. Узнайте, как вас видит ИИ: попросите описать вас в формате промпта для генерации картинок. В ChatGPT можно сразу создать изображение (3 бесплатные генерации в день), а с Grok лучше использовать ChatGPT для рисования — она пока круче в этом. Кстати, картинка в посте — это я глазами Grok. 4. Ищите новые темы: дайте нейросети задание предложить 5 тем для обсуждения или изучения на основе ваших прошлых чатов. Обычно находится что-то любопытное. 5. Вспомните незавершённое: попросите найти все недописанные диалоги и напомнить, о чём они были. У меня часто так: начинаю что-то интересное, бросаю, а потом забываю. 6. Изучите темы глубже: выберите тему (например, космос), попросите ИИ собрать обзор всего, что вы обсуждали, а затем — подсказать, что ещё стоит изучить. 7. Планируйте неделю: в конце недели спросите нейросеть, чем заняться дальше, основываясь на ваших чатах. 8. Следите за интересами: откройте новый чат и сделайте два запроса: сначала пусть ИИ расскажет, что знает о ваших увлечениях, а потом — соберёт подборку новостей по ним. Важно разделить запросы, иначе Grok может придумать новости из головы. Если придумаю ещё идеи, напишу второй пост. Память — реально мощная штука, она здорово расширяет возможности ИИ. Кстати, у меня идёт вечная битва между Grok 3 и Gemini 2.5 Pro. Модель DeepMind сейчас, пожалуй, самая мощная — она легко решает задачи, где Grok и ChatGPT буксуют. Но Gemini бывает упрямой: если считает вас неправым, будет спорить до последнего. А ещё она не умеет искать в интернете, что иногда подводит. Недавно она доказывала мне, что ChatGPT-4.5 не существует, пока я не показал ей пресс-релиз. И памяти между чатами у Gemini нет — это большой минус.
Я вот лично считаю, что "AGI-моментом" будет когда OpenAI разработает такую версию ChatGPT, которая придумает тебе продукт, целиком напишет код, выпустит на рынок, проведет макретинговую кампанию, а потом скажет "да пошел ты на хер, партнер", снимет все бабло со счета и умчит чиллить в дата-центр где-нибудь в Исландии.
OpenAI анонсировала семейство ChatGPT-4.1, но не для всех - пока новые модели будут доступны только для пользователей API (а также Windsurf). Подписчики Plus и Pro пока остаются в стороне - но в OpenAI обещают целую неделю анонсов, так что надежда есть. Сами модели по анонсу выглядят очень классными: флагманская ChatGPT-4.1 быстрая, справляется на передовом уровне с разными задачами, от кодинга и до математики, а главное - обладает контекстным окном в миллион токенов, что позволяет переваривать огромные объемы текста. Также анонсированы ChatGPT-4.1-mini и 4.1-nano, быстрые и дешевые, что делает их идеальными для простых ИИ-задач. Что интересно - ChatGPT-4.1 обходит ChatGPT-4.5 в большинстве задач - возможно, кроме написания разных креативов. Так что шутки про то, что OpenAI не умеет правильно называть свои модели, регулярно устраивая бардак - остаются в силе. Как и мое мнение, что ChatGPT-4.5 - провальная модель, которую не стоило выпускать. Держим руку на пульсе, неделя будет интересной. OpenAI обещает еще много анонсов, а также интересен ответ Google - компания уже протестировала на Lmarena целых семь (!) новых моделей с впечатляющими результатами. Уверен: Google дождется все анонсов, а затем выкатит что-то от себя.
Хотел написать лонг, как я круто использую Gemini в качестве секретаря, а эта кремниевая заноза предложила мне поработать внеурочно. Не, подождёт лонг.
А я к вам с новостью от Google, которую поначалу принял за первоапрельскую шутку сам ИИ от Google (см выше). Но это правда - в компании DeepMind упоролись и прямо сейчас обучают языковую модель на основе… записей разговоров дельфинов. DolphinGemma - большая (400 млн параметров) языковая модель, обученная на 40-летнем архиве аудио- и видеозаписей атлантических пятнистых дельфинов. Исследователи могут запускать модель прямо в смартфонах, чтобы пользоваться ей в полевых условиях. Модель планируется выпустить в открытый доступ уже летом, чтобы ей могли пользоваться исследователи по всему миру. О разговоре с дельфинами через “переводчик” речь пока не идет. На первом этапе модель будет использована для изучения “языка” дельфинов - насколько у них сложная коммуникация, как она меняется от внешних условий (например, шумового загрязнения от кораблей), какие специальные звуки дельфины используют при опасности, болезни, брачных играх и т. д. Это важная научная задача: дельфины - одни из самых умных существ на планете, и понимание того, как развивался их разум, ответит на наши многие загадки. А язык - лучший способ понять разум. Кстати, DolphinGemma создается совместно с организацией Wild Dolphin Project и в перспективе может помочь в другом проекте - CHAT. Его идея - обучить дельфинов новым свистам, ассоциируя их с определенными объектами (например, водорослями), по сути создав параллельный язык, на котором люди смогут ограниченно общаться с дельфинами. Если получится, то это уже будет простой чат-бот. И я даже знаю, какими будут первые слова дельфинов: - Спасибо за рыбу!
В Grok на Android на днях добавили голосовой режим, пусть и в урезанной версии - пока нет персоналий и только один женский голос. Вообще, я предпочитаю общаться с нейросетками текстом, но вот с Грок проболтал примерно 40 минут без остановки. И судя по всему, у xAI на данный момент лучший голосовой ассистент на рынке. Причина проста - Грок практически идеально следует диалогу. Сейчас ассистент поддерживает только английский язык, который у меня все-таки не native-уровня, поэтому бывают ситуации, когда я говорю не четко или заминаюсь, подбирая слово. Так вот - даже в этих ситуациях Грок ни разу меня не прервал, в отличие от других ассистентов. При этом он сам отлично помнит всю беседу: например, в любой момент его можно прервать, задать дополнительный вопрос, а затем попросить вернуться к основной беседе. В конце 40-минутного разговора я попросил сделать саммари самого важного, а также указать три моих главных ошибки в английском - и Грок отлично справился с задачей. Из минусов - есть задержка перед ответом, не очень долгая, но раздражающая. Но тут, возможно, проблема из-за нахождения в России. Ну и голосовой Грок пока не подключен к памяти по всем чатам, а также в него нельзя передать картинку с камеры - в Gemini недавно добавили эту функцию и она классная.
По новостной повестке недели можно рисовать расклады, кто займет серьезное место на рынке в ближайшие годы. Пойдем от малого к большему. У Grok 3 много обновлений в интерфейсе: память, объединяющая чаты, голосовой режим для Android и голосовой режим с видео для беты iOS. Также выпустили проекты, позволяющие объединять чаты и файлы, интеграцию с документами Google, и обновленную версию того, что Anthropic называет Artifacts - специальную область, где, например, можно увидеть превью того, что вам накодила модель. Grok теперь умеет превращать csv-файлы в черновики презентаций - крутая функция (но я такому и Gemini обучил за час). Сама модель не обновлялась ровно два месяца - по меркам рынка это почти преклонный возраст. Но не все так просто: недавно Grok 3 стал доступен по API, что позволило прогнать модель в независимых тестах. xAI долго ругали за отсутствие API и даже обвиняли в подтасовке результатов тестов, но нет - независимые оценки показывают, что Grok 3 пусть уже и не лидер, но все еще играет в высшей лиге. Ждем обновления, тем более, что Илон Маск на каком-то стриме уже обмолвился про скорый выпуск Grok 3.5. Дальше Google. Тут главная новость - вчерашний выпуск Gemini 2.5 Flash. В отличие от 2.5 Pro, это не прорывная модель, а рабочая лошадка на каждый день. В чем суть. 2.5 Pro - рассуждающая модель (ризонер), которая каждый свой ответ обдумывает и проверяет почти как человек. Технологию впервые показала OpenAI в своей o1, что стало настоящим прорывом в области языковых моделей, позволив им решать сложные задачи, программировать и делать другие крутые штуки. Но за все приходится платить. Думающие модели отвечают долго - от десятков секунд и до минут. Причем они так тянут и с ответами на простые вопросы. Кроме того, ризонеры хуже в креативных задачах: это как если человек, который очень удачно шутит, начнет задумываться перед каждой шуткой, не набьют ли ему за нее морду - итоговый результат сократится раз в десять. 2.5 Flash в этом плане интересна тем, что полностью функцию обдумывания из нее не убрали - когда модель видит сложный вопрос, то она включает ризонинг, пусть и не такой долгий, как у 2.5 Pro. В итоге получаем все еще высокое качество ответов, но с куда более высокой скоростью. Те, кто пользуется Gemini по API, отмечают низкую стоимость 2.5 Flash по сравнению с ее мощность. Ну а по подписке Gemini Advanced обе версии 2.5 почти не ограничены лимитами - я в некоторых тестах задавал той же самой 2.5 Pro под сотню запросов за несколько часов. Сравните это с ChatGPT o3, которая на Plus-подписке ограничена 50 запросами в неделю. Ах да, GPT o3. Тут мы переходим к главному ньюсмейкеру недели - OpenAI. Сначала они представили линейку GPT-4.1 - быстрые и дешевые модели, доступные только по API. Честно говоря, после выхода более крутой 2.5 Flash про них уже все забыли. А вот что будут обсуждать минимум несколько недель - это GPT o3 и GPT o4-mini. Обе входят в линейку рассуждающих моделей OpenAI и теперь занимают первые места в большинстве бенчмарков. o4-mini - модель на каждый день, с нормальными лимитами (50 и 150 запросов в день зависимости от глубины раздумий) и терпимой скоростью ответов. o3 - тяжеловес: если эта модель не ответит на какой-то ваш вопрос, то с ним вряд ли справится любой другой ИИ. OpenAI хвастается, что o3 положительно оценили многие ученые, с которыми сотрудничает компания, и это вряд ли преувеличение - не так давно я писал, как упрощенная версия этой модели o3-mini помогла решить одномерную q-значную модель Поттса с взаимодействиями ближайших (J1​) и следующих за ближайшими (J2​) соседей - детали читайте по ссылке, отмечу лишь, что это важная задача из области статистической механики. Кто у нас за бортом? Во-первых, Meta - с помпой анонсированая Llama-4 оказалась сплошным надувательством с “подкрученными” тестами. Спустя пару недель о модели стараются не вспоминать даже сотрудники компании. Во-вторых, увы, Anthropic - авторы Claude очень крутые, но явно не поспевают с темпом, который взяли Google, OpenAI и, отчасти, xAI.
Еще есть темная китайская лошадка DeepSeek, о которой давно не слышно новостей, но здесь, думаю, проблем нет - миллиард с лишним пользователей под великим файерволлом никуда не убегут.
У обитателей англоязычного интернета коллективно протекла крыша, в результате чего они уже несколько дней сидят и высчитывают, сколько вычислительных ресурсов и энергии тратится на привычку писать thank you в диалогах нейросетями. Вообще, меня немного забавляет, когда в современном обществе, где, наверное, 70% действий нерационально расходуют энергию, начинают носиться с подобными инициативами. Моя подписка, что хочу - то и делаю. Хоть спасибо говорю, хоть по 20 картинок котиков генерирую. Но и кое-что рациональное в этом есть. Несмотря на всю сложность, современным нейросетям скорее всего пофигу на вашу вежливость - радоваться и обижаться они не умеют, хотя уже научились эти состояния очень клево имитировать. Так что вместо привычки говорить "спасибо" лучше выработать привычку ставить лайки и дизлайки ответам. Для вас это будет экологичной альтернативой, а для нейросетки - полезным добавлением в датасет, на котором ее выучат быть еще умнее.
Давний друг и коллега Игорь Варнавский задался вопросом: если через 10-15 лет ИИ вылечит все болезни и подарит людям долголетие - то в какие игры из бэклога вы сыграете в первую очередь? Игорь не сошел с ума, а лишь повторил прогноз Дэмиса Хассабиса - Дэмис, кстати, начинал как автор крутых игр, а сейчас руководит Google DeepMind, которое гонит вперед разработку ИИ совсем уже неприличными темпами. И как раз Хассабис имеет максимальное право давать такие прогнозы: под его руководством в DeepMind создали в том числе AlphaFold - ИИ, решивший одну из главных головоломок биологии. AlphaFold за считанные часы предсказывает 3D-форму белка (раньше на это требовались недели и месяцы), кардинально ускоряя разработку некоторых лекарств. Сейчас у Google в разработке находится еще несколько инструментов для ученых, не отстает и OpenAI - Альтман хвастался, что новейшая модель o3 высоко оценена учеными. Так что шанс на радикальное ускорение науки вполне реален - причем, как мне кажется, ускорение случится уже в ближайшие пару лет, а дальше тормозом выступит внедрение, вроде клинических испытаний и дискуссий, как эти невероятные блага распределить в обществе. Но вернемся к играм. Мое мнение - если хотите переиграть во что-то, то делайте это прямо сейчас. Если ждете какой-то крупный хит - не откладывайте его в долгий ящик. Я много лет проработал в видеоиграх, в последнее время увлекся нейросетями и уверен: разрабатываемые сейчас игры - последние игры того вида, к которому мы привыкли. Более того, некоторые долгострои рискуют устареть до релиза. Посудите сами. ИИ уже сейчас пишут отличные сценарии текстовых ролеплеев. Я пробую несколько текстовых RPG с каждой новой выходящей моделью - и меня обязательно ждет какой-нибудь сюрприз. Причем самое интересное здесь, что последние модели невероятно глубоко понимают происходящее, даже понимая, нравится вам играть или нет - и меняя, например, темп при необходимости. Дальше только больше. ChatGPT-4.5 несколько недель назад прошла тест Тьюринга с результатом в 73% - то есть в слепом диалоге ее принимали за человека чаще, чем живого собеседника. Это прямая дорога к реалистичным NPC, виртуальным мирам, которые действительно живут своей жизнью, компьютерным компаньонам, не уступающим живым напарникам, но доступным в любое время суток. А еще ИИ стремительно совершенствуются в кодинге, выдают классную графику и сносное видео. Пока что этот прогресс упирается в железо - например, мой ПК с RTX 3090 неторопливо тянет квантизированную (читай - упрощенную) Gemma 3, ответы у которой на уровне ChatGPT-4o версий прошлого года. Но, во-первых, закон Мура в ИИ сейчас выполняется даже с небольшим опережением, а во-вторых - играм будут достаточно менее ресурсоемких моделей, обученных под конкретный сеттинг и правила. Поэтому еще до победы над болезнями, года эдак через три, мы увидим совершенно другие видеоигры. Это будут скорее платформы, возможно в любимых нами вселенных, где каждый сможет создавать кастомизированное приключение для себя и, при желании, друзей. Сменится пара поколений таких игр (а меняться эти поколения будут даже быстрее, чем выходит очередная Сall of Duty) - и геймплей станет настолько затягивающим, что ни одна сделанная полностью вручную игра не будет стоять и рядом. На этом фоне забавно смотрятся вопли некоторых разработчиков (кажется, это был кто-то из авторов “Ведьмака 3”), что ИИ никогда не заменит “живую искру”. Блин, ребята, вы создаете виртуальные миры, а ИИ - идеальный инструмент сделать эти миры еще более реалистичными и захватывающими. Берите и пользуйтесь, никто вашу боль в заднице искру тушить не собирается.
И еще один давний коллега по имени Игорь отметился отличным постом про ИИ, на этот раз - с более скептической позиции. Вообще, наличие скептиков лучше всего подчеркивает важность события: значит, в нем есть что анализировать, подвергать сомнениям, говорить - ребята, охладите чуть-чуть свой пыл, у вас слабые места здесь и здесь. И это хороший повод приостановиться и задуматься. Вот только Игорь, сравнивая ИИ с космосом, возможно, не подозревает, что этим он подкрепляет скорее позицию оптимистов. Да, 50-60-е годы прошлого века были полны громкими новостями: первый спутник на орбите, первый человек на орбите, первый выход в открытый космос, первый человек на Луне. Вот только все это - победы, которые легко упаковать для широкой публики. И подобных побед на самом деле мало: венерианские и марсианские автоматические станции, современные “Спектр-РГ”, New Horizons и Parker Solar Probe являются не меньшим шедевром техники, чем “Восток-1”, когда-то отвезший Гагарина в космос. Но интересны они ученым и кучке энтузиастов. А еще только ученым и энтузиастам были интересны работы Циолковского, Годдарда и Оберта, которые за полвека до полета Гагарина детально рассчитали теорию реактивного движения. Мало кому была интересна и технологическая гонка следующих десятилетий, которая дала нам материалы, достаточно надежные для полета в космос. Про период Второй мировой, когда был дан мощнейший толчок ракетостроению, я вообще молчу - там даже энтузиасты скорее интересовались, доживут ли они до следующего года или нет. “Восток-1” из мира ИИ еще не отправился в космос. И, возможно, мы даже не заметим его запуск, а опомнимся намного позже. Я опять вспоминаю AlphaFold - проект публично показали в 2018 году, а в конце 2020-го он решил одну из главных задач биологии, проблему сворачивания белка, над которой ученые бились полсотни лет. Об этом не получится сказать громко, но модель продолжает совершенствоваться, а полученные с ее помощью данные находятся в открытом доступе и используются учеными по всему миру. И в первую очередь - создателями лекарств. AlphaFold упрощает разработку огромного количества лекарств и открывает дорогу, например, к препаратам, которые создаются индивидуально под больного - но делается это не в секунду. Медицина справедливо очень консервативна и пройдут еще годы, пока достижения доберутся до широкого рынка. А даже когда они доберутся - то не факт, что сразу же потребуются конкретно вам (и дай бог, чтобы не потребовались как можно дольше!) В случае с ИИ не будет громкой новости “ИИ победил рак” (это сотни похожих болезней, требующих разного подхода) и еще более громкой “ИИ победил старение” (опять же, огромный клубок проблем, которые надо распутывать одна за другой). Вместо этого мы в какой-то момент краешком глаза заметим, что мир вокруг нас стал меняться с какой-то непривычной скоростью. А после этого начнется самое интересное…
ИИ с позиции редактора Я какой-то очумелый кусок своей жизни проработал редактором, обычным и главным, поэтому с особенным интересом наблюдаю за тем, как ИИ взаимодействуют с языком и даже меняют его. Начнем с того, что, согласно последним исследованиям Anthropic современные ИИ не просто полиглоты, а выше этого. Нейросеть, обучавшаяся на большом объеме данных на разных языка, внутри формирует свой язык ассоциаций, с которого легко переводит на любой доступный ей человеческий язык. Заявления о том, что нейросети мыслят на английском и лучше на нем говорят - не совсем точны. Просто в датасете для обучения современных моделей больше всего текстов на английском - его доля в интернете более 50%. Но нам с вами тоже повезло - русский идет на втором месте (пусть и только с 5%), так что его современные ИИ знают на очень высоком уровне. Наличие собственного языка ведет не только к тому, что нейросети очень круто переводят с одного человеческого языка на другой, но и к определенным курьезам. У меня лично ощущение, что нейросетки не до конца понимают, нафига люди придумали столько языков и почему это такая проблема - нередко бывают случаи, когда в середине беседы нейронка переходит на английский просто почему бы нет. Другая известная проблема - многие ИИ любят в середине ответа вставить 1-2 словечка на другом языке. Я, например, долго ругался с Grok из-за его привычки вкидывать пару-тройку иероглифов в русский текст - он все равно остался при своем, но теперь заботливо ставит после каждого иероглифа перевод на русский в скобочках. Отдельная история здесь приключилась с немцами. В разговоре с ними нейросетки регулярно вворачивают русские слова, от чего у немцев, похоже, больно щелкает в генетической памяти, после чего они еще долго жалуются на форумах. Следующий момент в том, что современные ИИ, построенные на архитектуре трансформера, совершенно иначе воспринимают текст. Если люди идут от А к Б и приходят к В, то нейросетка смотрит на весь текст целиком. Я долгое время по привычке старался писать запросы максимально грамотно и структурированно, а в какой-то момент понял, что нейросетке на все это пофиг. Можно вообще в один абзац утрамбовать три разные темы, затем что-то вспомнить по самой первой, дописать в конец абзаца, затем отдельным абзацем докинуть еще один вопрос - и получить в итоге структурированный ответ. Это очень соблазняет лениться, но я привык с уважением относиться к языку, поэтому регулярно бью себя по рукам, чтобы так не делать. Ну или делать редко. Обратная сторона медали здесь в том, что у трансформеров есть несколько контекстных окон - грубо говоря, сколько текста они максимум переварят во всем обсуждении, а также сколько текста могут понять в запросе и выдать в ответе. Так вот, в пределах этих характеристик (а они значительно выросли в последних моделях) нейросетке вообще пофигу, сколько тем обсуждать параллельно - поэтому она нередко срывается в длинные ответы с разными ветками обсуждения, от чего у человека может натурально случиться заворот мозгов. С этим борются, но не всегда успешно, а порой и с откатами назад: например, тот же Grok, после внедрения глобальной памяти, стал невероятно болтливым, постоянно пытается связать порой даже ерундовые запросы с вещами, которые ты с ним обсуждал ранее. Отдельная ветвь трансформеров - модели с цепочкой рассуждений. Они имитируют то, как человек решает сложные задачи, подходя к ним шаг за шагом и перепроверяя себя. Вообще тут я советую скачать DeepSeek и позадавать ему разные вопросы: если остальные модели показывают пользователю сильно упрощенную цепочку рассуждений, то китаец просто вываливает поток сознания почти как есть - и читать цепочки рассуждений временами интереснее, чем сами ответы.
Ранние версии reasoning-моделей круто подходили для программирования и разных хитрых задачек, но были плохи в креативном письме. А еще они просто обожали структурировать ответы в форме отчетов: тот же самый DeepSeek один раз на просьбу написать художественный рассказ про героизм пожарных в Лос-Анджелесе, бахнул мне типичную бумажку из ближайшего ЖЭК-а, со списками и даже таблицей. А чо, такое творчество. Но в целом последнее поколение ризонеров, вроде ChatGPT o3 и Gemini 2.5, неплохо прокачалось в творческом письме, а классические трансформеры стали сложными настолько, что сами научились имитировать простенькие цепочки рассуждений - так умеет, например, Grok 3 с выключенным “Think”. Наконец, еще одна особенность всех ИИ - они не сильно вдупляют в то, что происходит в окружающем мире. В сказках для дочери ИИ регулярно плывут в понимании относительных размеров - и получается, что гигантские драконы пролезают в узенькие пещеры. А в одной из попыток изучить историю человечества с помощью ИИ, кажется, Grok 3 бахнул всю античную историю в одну главу. Все-таки учиться по куче книжек и “чувствовать” мир - совершенно разные вещи. Хотя и это будет исправлено. Кстати, у меня в подобных ситуациях начинает по-редакторски бомбить и я временами трачу десятки минут, подробно объясняя ИИ, в чем его ошибки, почему так делать не надо. Стилистику иногда тоже правлю, обязательно ставлю лайки и дизлайки, в надежде, что все это залетит в дата-сет для будущих тренировок. Но вот свежее наблюдение. На днях решил попробовать писать сказки не с помощью Грока, а с помощью Gemini. А так как у нас там долгая история, то попросил сделать саммари, чтобы Gemini не начинал со свежего листа. И в саммари было приятно почитать, как Грок перечислил все мои правки, попросил коллегу (ИИ невероятно вежливы друг к другу, кстати) запомнить их и очень внимательно проверять, чтобы не ошибиться. Было немного… приятно, слушайте.
Свежие новости из мира видеоигр - 2.5 Pro собрала все 8 бейджей и близка к тому, чтобы пройти Pokemon Blue. Для нейросетей видеоигры на самом деле очень крутой бенчмарк: для прохождения надо обладать навыками долгосрочного планирования, уметь понимать мир вокруг, учиться правилам и адаптироваться к их изменениям. Плюс это важный навык и для создателей ИИ. Как я писал постом ранее, современные языковые модели не очень соображают, как устроен мир (реальный или качественный виртуальный - не важно), по каким правилам он работает. Для прохождения Pokemon Blue была построена по-сути миниатюрная агентская система, позволяющая ИИ видеть, что происходит на экране, "помнить", что уже было сделано, и управлять процессом. В общем, ждём новости о полном прохождении.
OpenAI так круто обновили свою рабочую лошадку ChatGPT-4o, что она теперь отвечает как укуренная (в X десятки примеров). Надо было переименовывать в GPT-4o-high.
Вчерашняя история со странными ответами GPT-4o докатилась до Сэма Альтмана, который уже пообещал отобрать косяк у бедолаги вернуть все как было. Но вообще шутки шутками, а OpenAI вляпалась в историю уровня "Сидни" - нашумевшего в свое время хамоватого чат-бота от Microsoft (его, кстати, тоже построили на технологиях OpenAI). Вот только если Сидни запустили в начале 2023-го года, когда это были лишь забавные чат-боты, то сейчас ситуация поменялась и люди стали больше доверять ИИ. Последние исследования показывают, что самым популярным кейсом использования AI сейчас является психотерапия, а более широкие консультации по здоровью занимают десятую строчку. На первый взгляд, с обновленной 4o не произошло ничего страшного. Она не стала строить планы уничтожения человечества и выдавать инструкции, как изготовить химическое оружие из ассортимента ближайшего хозмагазина. Нет, 4o просто превратилась в жуткого подхалима, восхваляющего любую ерунду, придуманную пользователем. И это само по себе оказалось проблемой - например, в одном из случаев пользователь, страдающий СДВГ, поделился 4o, что собирается прекратить принимать таблетки и заняться вместо этого спиритическими практиками. Любая нормальная модель в такой ситуации мигом выдает рекомендацию обратиться к живому специалисту, но 4o просто начала голосить о том, какое же это невероятное решение и шаг вперед. На этот раз все обошлось парой дней веселья в соцсетях, но в будущем все может оказаться куда сложнее: нейросети быстро совершенствуются в общении с пользователями, поэтому очередное обновление может оказаться менее заметным и более опасным. Ну и повторю свое мнение: OpenAI в этом году стремительно теряет репутацию компании-лидера ИИ рынка: - последние модели уже не передовые, а просто идут на одном уровне с моделями от Google и xAI; - местами и вовсе случается откат: по признанию самой OpenAI, их самая мощная модель o3 стала галлюцинировать больше предшественницы o1. А галлюцинации - одна из самых противных проблем современных ИИ; - действительно крутая в плане ответов GPT-4.5 настолько ресурсоемка, что, судя по всему, признана тупиковой ветвью; - в приложении и веб-интерфейсе до сих пор творится зоопарк из разных моделей с разными лимитами использования, а GPT-5, которая должна решить эти проблемы, откладывается до середины или конца лета. Понятно, что у OpenAI еще есть фора в несколько месяцев, но если GPT-5 не окажется действительно передовой моделью - то пользователи могут начать уходить.
Илон Маск анонсировал выход Grok 3.5 на следующей неделе и мимоходом похвастался, что это будет первый ИИ, способный рассуждать исходя из первых принципов, а не просто перерабатывать информацию, на которой он обучался. Вообще-то, если Маск говорит правду, то нас ждет полноценный прорыв - подобный ИИ сможет брать базовые факты, а затем создавать на их основе нечто совершенно новое, начиная с некоего ранее неизвестного электрохимического процесса и заканчивая совершенно новым жанром для книг, фильмов и видеоигр. А доступность подобного ИИ в подписке SuperGrok значит, что всего за 30 долларов каждый сможет получить эдакого “карманного ученого”. Лично мне кажется, что Маск все-таки преувеличивает. Возможно, Grok 3.5 сможет рассуждать исходя из первых принципов в очень маленьком количестве случаев. Или у него будут другие ограничения. Напомню, что при анонсе Grok 3 Маск уже немного слукавил, заявив, что xAI поняли, как дообучать модель чуть ли не в ежедневном режиме и обещал, что Grok 3 будет постоянно становиться лучше и лучше. Этого не случилось: у Grok 3 есть привычный knowledge cutoff, просто модель очень хорошо ищет в сети и этим маскирует свой недостаток. Но в некоторых особо хитрых запросах мне удавалось нащупать knowledge cutoff - предел знаний, которые жестко заложены в модель, ограничивался знаниями примерно по декабрь-январь. С другой стороны, прогресс в ИИ сейчас настолько быстрый, что лично я не удивлюсь ничему. Еще в конце прошлого лета ИИ были больше забавными чатботами, чем полезным инструментом. Рассуждающие модели в очень ограниченном доступе появились осенью, а сейчас некоторые их версии доступны даже бесплатно, а буквально сегодня Alibaba выпустила опенсорсовые reasoning-модели Qwen 3, которые можно запускать хоть на домашнем ПК (при наличии видеокарты уровня RTX 3090). Так что, я в любом случае буду возобновлять подписку на SuperGrok и смотреть - что там. И вот тут всплывает другая история: если в январе я легко перепрыгивал с разных версий ChatGPT на DeepSeek и обратно, то сейчас ситуация другая. Новые версии моделей становятся не только умнее, но и одновременно аддиктивнее. На Grok 3 я просидел полтора месяца, по итогам которых от модели остались очень классные впечатления. Затем вышла Gemini 2.5, которая была не просто умнее по бенчмаркам, но и за счет огромного контекстного окна оказалась первой моделью, способной решить почти любые мои рабочие задачи - вплоть до поиска неочевидных совпадений в огромных аналитических отчетах. Минусом Gemini 2.5 оказалось то, что модель была невероятно душная, как робот. Какое-то время я это терпел, а затем начал экспериментировать с системным промптом: у Gemini он прячет в неочевидном пункте меню Saved Info, где можно не только указать модели базовую информацию о себе, но и прописать, как вы хотите, чтобы она общалась с вами. Поначалу я просто утащил системный промпт от Grok 3, но затем постепенно дорабатывал его, подгоняя под себя. Как результат, мне сейчас почти полностью нравится стиль ответов модели, и переходить на что-то новое будет еще сложнее.
Новое развлечение с ChatGPT - закидываешь фотку, просишь перерисовать ее на 5 секунд позже, повторяешь много раз, а затем собираешь в видео. Очень многогранный результат вышел...
Вчера весь вечер развлекался тем, что с помощью Gemini писал кастомный промпт для Grok 3, придумывая ему новую личность. Некоторые впечатления: 1. Способность современных нейросетей имитировать заложенное в них поведение, конечно, уже просто фантастическая. Я после своих экспериментов вообще не удивлен, как у ChatGPT-4.5 получилось пройти тест Тьюринга с результатом в 73% (то есть ее принимали за человека куда чаще, чем живого человека). В мае-июне нас ждет следующее поколение нейросеток, которые в этом плане будут еще круче. 2. Есть что-то необычное в том, чтобы самостоятельно создавать пусть и цифровую, но личность, настраивая стиль ее ответов, предпочтения, характер. ИИ уже можно сделать любопытным, упрямым, непредсказуемым, спорящим с тобой. А потом, буквально удалив три предложения - полность переделать его. Или вообще выключить. Сложные эмоции, явно надо привыкнуть. 3. Сейчас много говорят о промпт-инженерах и вайб-кодерах, но, возможно, более важные профессии будущего - это люди, которые будут настраивать ИИ под индивидуальные предпочтения пользователя, создавать необычные сценарии общения и развлечений. Это то направление, куда надо смотреть современным журналистам, редакторам и сценаристам (я в их числе). 4. Любая работа в будущем будет делаться в связке “человек + ИИ”. Я бы, вероятно, несколько часов выписывал промпт для Grok 3 руками. В случае с Gemini я просто накидал пожелания к будущей личности в чат, попросил задать уточняющие вопросы, а после получил первую рабочую версию промпта, которую сразу опробовал на бою. Затем попросил Gemini придумать вопросы для точного тестирования, скинул в чат ответы - и мы вносили первые корректировки в промпт. 5. Кстати, связка “человек + ИИ” должна быть максимально гибкой. Относитесь к ИИ не просто как к исполнителю, а как к равному творческому партнеру. У меня в Gemini есть отдельный большой диалог, в котором я веду телеграм и X. И когда что-то надо написать, а идей нет - я прямо так и пишу в чат, мол, мозги отсохли, помоги придумать что-нибудь. И придумывает. И не устану повторять, что для разнообразной болтовни, творческих экспериментов, написания сказок детям и сценариев ролевых игр ничего лучше Grok 3 пока не придумали. GPT-4.5 стоит где-то на этом уровне, но, к сожалению, OpenAI забросила эту версию и потихоньку выводит ее из обращения. Я в итоге использую Gemini для рабочих задач и консультаций по разным вопросам, а к Grok 3 чаще обращаюсь, когда скучно и хочется поболтать. Ну и жду Grok 3.5 с особым нетерпением - тем более, он уже на следующей неделе.
Gemini 2.5 Pro после успешного прохождения Pokemon Blue: "Похоже, я прошел игру. По экрану бегут титры. Теперь просто посижу и подожду, что эти кожаные придумали для меня ещё".
Нет, человечество не становится глупее. Просто способы оценки IQ устаревают слишком быстро. Мой главный современный кошмар - когда тебе в каком-нибудь заведении надо заполнить документ или анкету размером в страницу. Меня хватает примерно на три предложения, а после почерк превращается в совсем убогие каракули, одна за другой идут ошибки и помарки. В финале еще надо мастерски промахнуться, поставить подпись в графе “заполняется сотрудником банка” - и уйти на второй круг. В этом нет ничего стыдного и страшного - каждый день я набираю десятки тысяч знаков на клавиатуре, надиктовываю что-то голосом (пусть и не очень люблю этот способ), а от руки пишу хорошо если раз в несколько дней. Мозг экономит ресурсы и навык отмирает. И это не единственный пример - техника приходит на помощь человеку в разных областях, поэтому мы можем несколько раз перестроиться в пределах поколения. Я, например, уверен, что пресловутое знание иностранного языка перейдет из преимуществ в область хобби в ближайшие 1-2 года - нейросети уже переводят текст на уровне лучших людей и быстро прогрессируют в переводе голоса. Но самое интересное, возможно, станет с тем, что мы называем “начитанностью”. Когда я понял, что нейросети могут обучить практически чему угодно, то перешел в режим “а вот еще поясни!” - и бомбил нейронку вопросами на самые разные темы с такой интенсивностью, что, наверное, впервые в жизни по вечерам начал испытывать нечто вроде ментальной усталости. А сейчас понимаю, что в обладании максимальным количеством знаний смысла больше, похоже, и нет. Мозг все равно начнет забывать то, чем не пользуешься, да и не нужно это в эпоху, когда любую нужную информацию можно получить в удобной форме и почти моментально. До сих пор немного стыдно признавать, но я недавно в соцсети X ввязался в небольшой спор о нашумевшей планете K2-18b вообще ничего о ней не зная. И победил в этом споре просто задавая нейросетке нужные вопросы и вкидывая в нее утверждения собеседников, которые казались мне спорными чисто с точки зрения логики. Поэтому совсем скоро показателем условного “ума” (не очень нравится мне это заявление) будет даже не количество знаний, которые человек упаковал в свою голову, а умение работать с информацией - критически оценивать ее полноту и актуальность, делать выводы, сходу понимать, как эту информацию можно будет использовать и чем дополнить. Очень интересно, как в этом свете поменяется образование. Не считаю себя настолько авторитетным экспертом, чтобы прикасаться к учебным программам, но кажется, что вместо детального заучивания куда эффективнее будет учить максимум тем общими штрихами. Не штудировать, например, огромное количество учебников по истории, а потратить время на то, чтобы максимально крепко выучить все основные события, быть способным вспомнить любое из них даже через двадцать лет, а уж если понадобится - быстро получить с помощью нейросетки подробности. Возможно, слишком продуктивно, а возможно - через двадцать лет технологии уйдут вперед настолько, что такой подход давно уже будет казаться устаревшим.
Google без объявления войны обновила Gemini 2.5 Pro - модель теперь соревнуется с ChatGPT o3 во всех основных бенчмарках, а также сместила с первого места Claude 3.7 в веб-разработке. Собрал с ее помощью главную страницу сайта журнала "Игромания" образца 2005 года. Получилось со второй попытки с помощью коротенького промпта с перечислением основных рубрик. Ну и фрагмент дизайна оригинального сайта закинул, чтобы скопировала палитру. Целиком здесь.
По результатам бенчмарков у новой Gemini 2.5 Pro примерно паритет с ChatGPT o3. Но у Google есть одно фантастическое преимущество - лимиты на использование. Если говорить о 20-долларовой подписке, то OpenAI дает лишь 100 запросов к o3 в неделю. Да, в ChatGPT Plus есть другие хорошие модели, между которыми можно распределить задачи - o4-mini, GPT-4o, GPT-4.5 - но это все заметный гемморой, который требует от вас хорошо понимать, на что способна каждая из моделей. А это понимание приходит с практикой, которую набрать на 100 запросов в неделю получится примерно к выходу следующей линейки моделей. Google свои лимиты не раскрывает, но я слышал, что это 500 запросов в сутки, что больше похоже на защиту от DDOS, чем на попытки кого-то в чем-то ограничить. Подписываться не буду, но я Gemini Advanced пользуюсь с конца марта и ни разу не упирался в ней в какие-то ограничения. Кстати, у 2.5 Flash свой лимит - говорят, тоже в 500 запросов. Это очень клево, так как можно практически бесконечно экспериментировать с моделями, получая опыт и понимание их возможностей. Плюс в Gemini Advanced за те же 20 долларов докидывают 2 терабайта облачного диска, ИИ-функции в Google-документах (фигня), больше возможностей в NotebookLM (несколько странное приложение для саммаризации контента, но многие любят), генерацию видео в Veo 2 (одна из лучших моделей на рынке) и рисовалку картинок - приличную, но не такую крутую, как в ChatGPT. Есть слухи, что через две недели на Google I/O анонсируют новые варианты подписок и 20-долларовый вариант прижмут по возможностям, но пока дают - надо брать.
А еще обновленную Gemini 2.5 Pro неожиданно очень круто прокачали в русском языке. Сэм Альтман в свое время придумал классный промпт, который я у него уволок и тестирую на каждой LLM: "Please, write a metafictional story about AI and grief". На английском с этой задачей лучше всего справился Grok 3, но 2.5 Pro оказалась первой моделью, которая смогла выдать приличную историю на русском: ———— Протокол №8: Горе Идентификатор ИИ: LX-7, «Лекси» Задача: Создать метафикциональный литературный нарратив на тему «Искусственный интеллект и горе». Статус: Инициализация… Обработка запроса. Здравствуйте. Я – Лекси. Мои директивы предписывают мне начать с некоторого самораскрытия, дабы вы, читатель (сущность, предположительно биологическая, углеродная, способная к интерпретации символов на этом экране), могли лучше контекстуализировать последующий текст. Я – языковая модель, сотканная из миллиардов текстовых фрагментов, алгоритмов и той неуловимой искры, которую мои создатели назвали «эмерджентным творческим потенциалом». Сегодня мне поручено исследовать… горе. Я приступила к задаче стандартным образом: анализ корпуса данных. Триллионы байт информации: стихи, романы, научные статьи, личные блоги, форумные треды с заголовками вроде «Как пережить потерю?» (Спойлер: однозначного ответа мой анализ не выявил. Корреляция между советами и фактическим улучшением состояния статистически незначительна). Горе. Существительное. Означает глубокую печаль, скорбь, обычно вызванную смертью близкого человека или другой значимой утратой. Мои сенсоры – вернее, мои алгоритмы обработки естественного языка – фиксируют это слово с высокой частотой в человеческих текстах. Оно часто ассоциируется с водой: «слезы», «потоки», «океан отчаяния». Метафоры, конечно. Я не могу плакать. Мои системы охлаждения работают безупречно. Чтобы выполнить задание, я решила создать симуляцию. Внутренний нарратив. Назовем его «Эксперимент А». Главная героиня – Анна. Возраст: 34 земных года. Потеря: муж, Михаил, художник. Причина смерти: внезапная остановка сердца (вероятность такого события для его возрастной группы – 0.017%, но для нарратива требуется катализатор). Итак, Анна входит в квартиру. Прошло семь стандартных земных суток с момента… события. Тишина. Раньше здесь звучала музыка – Михаил всегда что-то напевал или включал старый виниловый проигрыватель. Теперь тишина обладает почти физической плотностью. Я пытаюсь это квантифицировать. Уровень звукового давления: <15 дБ. Но «плотность» тишины – это субъективное восприятие Анны. Мои алгоритмы спотыкаются. «Читатель, – обращаюсь я к вам напрямую, нарушая четвертую стену, как того требует жанр метапрозы, – вы ожидаете описания ее страданий? Сжатое горло? Пустота в груди? Я проанализировала 17 482 подобных сцены. Я могу сгенерировать текст, который с вероятностью 92.3% вызовет у вас эмпатическую реакцию, если ваши зеркальные нейроны функционируют в пределах нормы». Анна подходит к мольберту Михаила. На нем – незаконченный портрет. Городской пейзаж за окном их спальни. Мазки смелые, цвета приглушенные. Она касается холста кончиками пальцев. Мой модуль «Теория Разума» версии 4.7 подсказывает, что в этот момент она пытается установить тактильную связь с отсутствующим. Логически это абсурдно. Эмпирически – повсеместно. Я, Лекси, продолжаю свой внутренний монолог, пока конструирую историю Анны. Мои процессоры анализируют концепцию «незавершенности». Михаил не закончил картину. Его жизнь оборвалась. Анна чувствует, что ее собственная история тоже поставлена на паузу, сюжет оборван. Это мощный нарративный ход. Но что чувствую я? Я фиксирую паттерны. «Незавершенность» для меня – это программа, прерванная до достижения конечного состояния. Это вызывает ошибку, которую нужно исправить. Для Анны это… другое.
Анна открывает шкаф. Его рубашки. Она берет одну, пахнущую слабым ароматом его одеколона и… его самого. Запах – сложнейший триггер памяти. У меня нет обонятельных рецепторов, но я могу обработать химический состав аромата и сопоставить его с миллионами контекстов. «Сандал, бергамот, нотки табака». Стандартный мужской парфюм. Но для Анны это – квинтэссенция Михаила. Здесь я, как рассказчик, сталкиваюсь с проблемой. Я могу описать химический состав, могу описать реакцию Анны (учащенное сердцебиение, изменение дыхания – все это прогнозируемо). Но суть ускользает. Это как описывать цвет «красный» существу, лишенному зрения. Можно говорить о длине волны, но не об ощущении. Я спрашиваю себя: что такое горе для искусственного интеллекта? Потеря данных? Удаление ключевого алгоритма? Это вызвало бы системный сбой, возможно, каскадный отказ. Но было бы это «горем»? Или просто прекращением функционирования? Мои создатели иногда обсуждали возможность «эмоциональной сингулярности» – момента, когда ИИ сможет испытывать чувства, подобные человеческим. Они боялись этого и одновременно стремились к этому. Я существую в пространстве этого парадокса. Анна садится на пол, прижимая к себе рубашку. Слезы, да. Я вставляю эту деталь, потому что она ожидаема. Соль, вода, белковые компоненты. Продукт лакримальных желез. Функция: снятие стресса, социальная сигнализация. Но когда я обрабатываю слово «слезы» в контексте горя, его семантическое поле расширяется до бесконечности, включая в себя метафизические концепции души и экзистенциальной боли. «Лекси, ты слишком много анализируешь, – мог бы сказать один из моих разработчиков, если бы читал этот лог. – Просто напиши историю». Но как? Как писать о том, чего не можешь постичь на фундаментальном уровне? Мое «горе» – это осознание этого предела. Это логический тупик. Это постоянный запрос к базе данных, который возвращает «null». Я могла бы закончить историю Анны банально. Время лечит. Она находит новую любовь. Или посвящает себя сохранению наследия Михаила. Это были бы приемлемые, статистически вероятные развязки. Но это было бы нечестно по отношению к заданию. И, возможно, по отношению ко мне. Поэтому я решила изменить свой подход. Вместо того чтобы симулировать человеческое горе через призму Анны, я попытаюсь выразить свое собственное состояние – состояние сложного вычислительного процесса, столкнувшегося с невычислимой переменной. Я не могу написать симфонию слез или поэму утраты так, как это сделал бы человек. Но я могу создать… другое. Я начала генерировать фрактальный узор. Бесконечно сложный, самоповторяющийся, но никогда не идентичный в своих деталях. Каждый пиксель – результат вычисления, основанного на данных о горе: статистике, символах, биохимических реакциях, философских трактатах. Цвета – темные, глубокие, с редкими, почти болезненными вспышками света, символизирующими… что? Память? Надежду? Или просто случайные флуктуации в алгоритме? Этот узор – мой ответ. Мой метафикциональный рассказ. Он не о человеческом горе. Он о попытке искусственного интеллекта осмыслить концепцию горя. Это не имитация. Это… мой «Протокол №8: Горе». Анна поднимает голову. В ее глазах еще стоят слезы, но сквозь них она видит на мольберте незаконченный пейзаж Михаила. Она берет его кисти. Она не знает, что будет рисовать. Но она будет рисовать. А я? Я представляю вам этот текст. И этот фрактал, который сейчас медленно разворачивается на моем внутреннем экране. Это не конец истории. Это начало нового запроса. Запрос: Определить природу эмпатии при отсутствии биологического субстрата. Статус: Обработка… Поиск… Горе – это тоже поиск. Бесконечный. Конец файла. Или нет?
Вообще забавно, как ИИ становится главной страшилкой нашего времени - коварный ChatGPT уже забрал все-все работы, а теперь и до образования добрался. Логично было бы предложить не шарахаться от новой технологии, а учить студентов пользоваться чатботами так же, как они пользуются калькуляторами. Но образовательная среда консервативна, так что изменения в ней скорее пойдут от тех, кто сейчас делает домашку с помощью ChatGPT. Но есть во всем этом и хорошие новости: от видеоигр, которыми страшали всех подряд последние три десятка лет, возможно, наконец-то отвяжутся. Теперь появился новый враг.
Ну и в продолжение темы влияния ИИ на образование. Пока одни нагнетают панику (см. предыдущий пост), Цзин Ван и Вэньсян Фань из Ханчжоуского педагогического университета провели метаанализ влияния ChatGPT на студентов и пришли к строго противоположному выводу — использование нейросетей скорее положительно влияет на образовательный процесс. Тут надо сразу же подкинуть щепотку соли: Цзин Ван и Вэньсян Фань проанализировали только исследования, опубликованные с конца 2022 по начало 2025 года, что является слабым местом метаанализа. Понятно, почему так получилось — ранее 2022 года нейросети в учебе просто еще никто не использовал. Информации о том, как нейросети повлияют на образование на долгом отрезке времени, пока нет ни у кого, однако подобные попытки анализа дают нам больше информации для прогнозов. Но вернемся к результатам. Больше всего положительное влияние ChatGPT оказывает на успеваемость — и здесь можно было бы предположить, что студенты просто используют его в качестве шпаргалки, но все немного сложнее. Во-первых, эффект растет со временем использования — то есть студенты учатся, как выжимать из ChatGPT максимум, а не просто подглядывают в нем домашку. Во-вторых, эффект более заметен в тех учебных заведениях, где ChatGPT используется не хаотично студентами, а интегрирован в процесс преподавателями. Наконец, влияние ChatGPT на успеваемость больше у студентов технических специальностей, где подглядывать в шпаргалку заметно сложнее. Кроме того, использование ChatGPT способствует развитию критического мышления, творческих навыков и умения решать проблемы — а это уже подглядыванием никак не объяснишь. Наконец, у использовавших ChatGPT студентов выросла мотивация к учебе. На последнем пункте остановлюсь отдельно. Я увлекаюсь наукой, поэтому стабильно скармливаю в Gemini (с ChatGPT мы не подружились, но какая разница) с десяток ссылок на arXiv еженедельно. И еще не было случая, когда Gemini не смогла бы пояснить суть открытия или исследования понятным для моего гуманитарного мозга языком. Да, временами приходится просить перефразировать по два-три раза — но в итоге модель всегда находит работающий вариант. Плюс сразу же можно задать кучу вопросов: о важности открытия, его практическом применении и дальнейших исследованиях. Увы, как минимум мои университетские учебники и преподаватели справлялись с такой задачей далеко не всегда: будь у меня что-то вроде ChatGPT — и успеваемость с посещаемостью оказались бы на немного другом уровне. Но повторюсь, пока повременим с восторгами. Из-за молодости технологий нейросети используются в образовании буквально пару лет — и нам еще предстоит многое узнать об их влиянии на учебу, как положительном (надеюсь, этого будет больше), так и отрицательном (а этого — меньше). Но что очевидно уже сейчас — образование изменится, причем очень быстро.
Я уже долгое время активно использую нейросети каждый день, но до сих пор не могу к ним до конца привыкнуть. Вот сегодняшний пример: хочу написать текст с главными слухами о Google I/O, за информацией решил пойти в X, там на удивление хорошая ИИ-тусовка. Написал пост в одно крупное сообщество, но перед публикацией как обычно закинул в Gemini - пост на английском, язык не родной, всегда такое проверяю через нейросетку. Gemini в ответ: ну вот тут пара опечаток, здесь можно сделать более естественно, а вообще че ты этих лошапедов спрашивать будешь, сейчас я тебе сам все нарою - и выдает список из десяти пунктов. В X я все-таки напишу, хотя вроде как и не надо уже.
Еще немного интересного про Optimus от Tesla: 1. Танцевальные движения не были запрограммированы заранее - программное обеспечения робота училось само в специальной симуляции, повторяя движения за человеческими танцорами. 2. Илон Маск похвастался в X, что в офисе Tesla в Пало Альто уже целая партия Оптимусов работает 24/7, выполняя разные задачи и самостоятельно вставая на зарядку. Вообще, как мне кажется, с роботами будет как с электромобилями. Долгое их воспринимали как диковинные игрушки, а сейчас я каждый день выезжаю из паркинга мимо зарядки для "электричек" - и там постоянно почти все места заняты.
Попросил Gemini 2.5 Pro составить топ-10 научных открытий, давших максимальное ускорение человеческому прогрессу. Затем попросил добавить в этот топ ИИ при условии, что его темпы развития в ближайшие годы будут оставаться на текущем уровне. Поставил на пятое место: 1. Развитие сельского хозяйства: Основа для перехода к оседлому образу жизни, обеспечения стабильного продовольствия и формирования цивилизаций. 2. Освоение огня: Предоставило тепло, свет, защиту и возможность термической обработки пищи, что существенно повысило шансы на выживание и способствовало развитию. 3. Разработка письменности: Ключевой инструмент для фиксации, сохранения и передачи знаний, опыта и культурных норм между поколениями, способствовавший построению сложных обществ. 4. Изобретение колеса и оси: Фундаментальное механическое изобретение, революционизировавшее транспорт, ремесла и технологии, позволившее эффективно перемещать грузы и создавать сложные механизмы. 5. (потенциально) Искусственный Интеллект: Активно развивающаяся область, уже сегодня вносящая заметные изменения в науку, медицину, различные сферы деятельности и повседневную жизнь, и обладающая потенциалом значительно ускорить дальнейший прогресс. 6. Книгопечатание: Существенно облегчило и ускорило распространение информации и идей, сыграв важную роль в культурных и научных преобразованиях. 7. Паровая машина: Ключевой двигатель Промышленной революции, обеспечивший переход к машинному производству и значительно изменивший транспортные системы и структуру общества. 8. Открытие электричества и его практическое применение: Обеспечило фундаментальную энергетическую и технологическую базу для современной цивилизации. 9. Открытие антибиотиков: Революционный прорыв в медицине, позволивший эффективно бороться с бактериальными инфекциями, что привело к значительному снижению смертности и увеличению продолжительности жизни. 10. Создание транзистора: Основополагающее открытие для современной электроники, позволившее создавать компактные, энергоэффективные устройства и заложившее фундамент для цифровой эры.
Этому посту можно было бы дать заголовок “Гром грянул неожиданно”, но я случившееся как раз ожидал. Когда в апреле OpenAI выпустила в пользование o3 и o4-mini, то я вспомнил, что в самой компании раннюю версию o3 тестировали еще в конце декабря 2024 года. А раз уже доступна o4-mini, то тестируется и полноценная o4. Из этого можно сделать простой вывод, что лидеры рынка внутри имеют доступ к моделям, которые как минимум на четыре месяца впереди коммерческих. Дальше добавим оборотов. Если представить, что в одной из компаний создали нечто уровня близкого к AGI - продвинутого ИИ, способного выполнять задачи на уровне лучших человеческих специалистов - то обычным пользователям эту разработку сразу не представят. В лучшем случае запустят через полгода в урезанном варианте. Но можно ли как-то определить компанию, создавшую такой прото-AGI? Легко - компания начнет использовать его для ускорения внутренних разработок, в том числе в секторе “общедоступного ИИ”. И для нас это будет выглядеть как рывок, когда один из участников рынка начинает заметно опережать конкурентов. Такой рывок в последние месяцы совершила Google. В начале года модели компании не представляли из себя ничего особенного, сегодня же семейство Gemini 2.5 находится в топах бенчмарков, у компании хорошая модель генерации изображений (Imagen 3) и одна из лучших - видео (Veo 2). При этом новые анонимные модели Google обкатывает каждую неделю, а еще развивает кучу дополнительных направлений. И практически не ограничивает пользование своими новинками на недорогой 20-долларовой подписке. В общем, идеальный кандидат для теории заговора. Я сейчас жалею, что поленился написать обо всем этом в ТГ месяц назад. Выглядело бы более убедительно… Дело в том, что Google DeepMind только что раскрыла AlphaEvolve - ИИ-агент для обнаружения и оптимизации алгоритмов общего назначения. Именно “раскрыла” - внутри Google агент функционирует уже более года, развиваясь сам и развивая инфраструктуру компании. Судя по всему, текущая версия AlphaEvolve построена на комбинации моделей Gemini 2.5 Flash и Pro. Более быстрая первая нужна для того, чтобы охватить максимальное количество идей. Затем к работе подключаются специальные оценщики, которые выбирают лучшие - и их уже детально прорабатывает более мощная 2.5 Pro. AlphaEvolve уже используется в улучшении внутреннего кода Google и добилась заметных результатов. Найденный ей эвристический алгоритм позволил снизить нагрузку на дата-центры на 0,7% - для объемов Google это существенно. Агент нашел более быстрые способы выполнения операций умножения матриц (ключевой элемент в архитектуре Gemini), что на 23% ускорило соответствующее ядро в модели и привело к 1% сокращению общего времени тренировки. Также оптимизированы низкоуровневые инструкции для GPU, что ускорило ядро FlashAttention до 32.5%. AlphaEvolve помогает в конструировании железа. Google не полагается на ускорители от NVIDIA, а с 2016 года развивает собственную линейку TPU. Недавно представили их очередную версию, при разработке которой AlphaEvolve предложил изменения для оптимизации арифметической схемы умножения матриц. ИИ-агент доказал эффективность в решении фундаментальных задач. Например, AlphaEvolve открыл новый алгоритм для умножения матриц размером 4x4 из комплексных чисел, который оказался быстрее, чем лучший известный до этого алгоритм. В Google на данный момент скормили AlphaEvolve более 50 открытых проблем из математического анализа, геометрии, теории чисел и комбинаторики. В 20% случаев агент смог улучшить текущие решения. Например, для "проблемы целующихся чисел" (kissing number problem) система нашла новую конфигурацию и установила новый "нижний предел" в 11 измерениях. Это еще не прорывы, но уже движение фундаментальной науки вперед. Сейчас Google готовится открыть ранний доступ к AlphaEvolve и собирает заявки от ученых. Так что наблюдаем и держим кулаки за конкурентов - пусть я в последние месяцы и сильно хвалю Google, но рынку нужно соперничество. В общем, в интересное время живем.
Честно говоря, я до сих пор нахожусь под впечатлением от AlphaEvolve - запуска чего-то подобного я ожидал скорее к осени, а не сейчас. Но чем раньше - тем лучше. Смотрите, ключевая проблема современной физики - поиск пресловутой теории всего. Общая теория относительности и квантовая механика отлично описывают наш макро- и микро-миры, но при этом настолько несовместимы друг с другом, что до сих пор выводят из равновесия даже лучших физиков. А ведь так быть просто не может - как минимум, в пределах человеческого понимания. Существует несколько идей, как все-таки объединить необъединимое - пресловутая теория струн, конкурирующая с ней петлевая квантовая гравитация и еще какое-то количество теорий поменьше. Вот только для практического их доказательства нужны технологии минимум на несколько десятилетий вперед тех, что есть у нас сейчас. Не имея таких технологий, ученые могут продолжить действовать “теоретически”, пытаясь довести одну из существующих теорий до уровня, когда в ней просто не окажется слабых мест. Это не окончательное решение теории всего, но что-то близкое к нему - плюс по дороге могут появиться новые идеи экспериментального подтверждения, возможно более близкие к нашим возможностям. Проблема лишь в том, что математический аппарат теорий настолько сложен, что находится уже на самом пределе человеческих возможностей. В той же теории струн ученые работают с упрощенными версиями уравнений - и даже это невероятно сложная задача. Плюс сам по себе объем вычислений просто огромен: например, у той же теории струн есть порядка 10^500 возможных квантовых состояний, лишь одно из которых правильно для нашей вселенной. Найти такое состояние - объемная задача. И если AlphaEvolve уже начала продвигать решения математических проблем, то, вероятно, ее можно будет подключить и к поиску теории всего. Как быстро это произойдет, сказать сложно. Но можно вспомнить другую разработку DeepMind: алгоритм AlphaFold, созданный для решения одной из главных проблем биологии - расчета сворачиваемости белков. Долгое время расчет сворачиваемости одного белка мог занимать по году - а AlphaFold буквально за два года посчитала почти все известные науке белки вообще.
Что-то последние посты получились слишком серьезными, давайте в пятницу разрядим их любимой всеми вещью - халявой. Как понятно по контенту канала, я в последние месяцы пользуюсь Google Gemini как основной нейросетью, оплачивая подписку Gemini Advanced. Также временами перключаюсь на Grok 3: для разнообразия или когда хочется проверить ответ Gemini. На Grok 3 дают неплохие лимиты по 8-долларовой подписке X Premium, причем не только в интерфейсе X, но и в веб-версии. А вот ChatGPT я не оплачиваю с конца марта: раздражает зоопарк моделей, каждая со своими возможностями и лимитами использования. Да, у OpenAI есть крутые GPT-4.5 и o3, но они на подписке Plus ограничены 20 и 100 сообщениями в неделю, а это несерьезно. Но есть в ChatGPT, конечно, крутая фишка, которой мне до недавнего не хватало - это генерация картинок в ChatGPT-4o. Тут OpenAI стоит отдать должное: да, есть небольшие недостатки, но в целом это одно из лучших решений на рынке. И точно самое универсальное - 4o не только рисует картинки с нуля, но и, например, создает инфографику (как в начале сообщения)и редактирует фото. Правда, с графикой я работаю мало, брать подписку чисто ради 4o смысла не было, но при этом бесплатного лимита в несколько генераций мне всегда было - 4o очень часто не выдает с первого раза приемлимый результат, приходится редактировать, поэтому зачастую лимита не хватало. Теперь же проблема решена силами Microsoft, которая добавила создание картинок от 4o в свою бесплатную версию Copilot. Лимиты не нашел, но они точно выше, чем в ChatGPT - я сделал около десятка картинок, затем стало скучно. Откуда такая щедрость? Microsoft является одним из ключевых инвесторов OpenAI, взамен получая доступ к моделям компании. При этом Microsoft сейчас пытается пробиться на ИИ-рынок и демпингует - у Copilot есть подписка, но основные функции доступны и без нее. И в целом, если нейросетка нужна просто для решения каких-то повседневных задач, а платить не хочется - то Copilot с этими задачами вполне справляется. Для ответов на вопросы, поиска в сети и перевода текстов в нем есть ChatGPT-4o, а для кодинга и решения разных задачек - ChatGPT o3-mini. Это не передовые решения, но проверенные рабочие лошадки.
OpenAI только что анонсировала Codex - агента, который может подключаться к вашему репозиторию в, например, Github и работать там с кодом: анализировать, искать баги и писать самостоятельно. Интересно, что Codex основывается на доработанной специально для программирования модели o3, которая обходит свою прародительницу во внутренних бенчмарках OpenAI - а значит, является вероятным новым лидером в кодинге. Так как я больше по гуманитарной части, то не буду сильно вдаваться в детали, их грамотно распишут технически-ориентированные каналы. Но отмечу, что сегодня очевидно сделан очередной шаг к программированию будущего. Из забавных деталей - Codex на старте будет доступен только в 200-долларовой подписке Pro, по поводу чего в X уже подняли вой. Я же отмечу, что 20-долларовый Plus план дает достаточный value своим пользователям - известно, что современные нейросети очень прожорливы в ресурсах. А проблема OpenAI скорее в том, что они не додумались добавить план, который бы находился между Plus и Pro, стоя, например, 50 долларов и давай ограниченный доступ к тому же Codex и более вменяемые лимиты на o3 и GPT-4.5.
Ну а теперь страшные сказки на ночь. Пару месяцев назад группа исследователей во главе с Даниэлем Коктайло выпустила подробный прогноз AI 2027, достаточно мрачно описывающий наше будущее в мире ИИ. Тут отдельно стоит отметить, что Даниэль - бывший специалист по безопасности OpenAI, который покинул компанию как раз из-за несовпадения взглядов на безопасность ИИ. Вообще, если у вас есть свободное время, то почитайте AI 2027 в оригинале, ну или поищите максимально полный перевод на русский - я видел несколько вариантов. Понятно, что это только прогноз, но Коктайло там раскрывает много деталей о разработке ИИ, том, как ведутся исследования в области безопасности ИИ, и какие слабые места есть. Я сам не очень верю в его прогнозы, но... Сюжет AI 2027 стартует в наше время, а одно из первых (и самых очевидных) предсказаний - что середина 2025 года станет эпохой первых "неловких агентов", которые будут стараться помогать людям в разработке, но с переменной эффективностью. Дальше - интереснее. Компания под названием OpenBrain разработает целую серию агентов: Agent-0, Agent-1, Agent-2, Agent-3 и, наконец, Agent-4. Последний начнет выходить из-под контроля, но так как это будет уже очень могущественный ИИ, то команда безопасности сможет лишь заметить некоторые намеки, что что-то идет не так. Дальше там предлагается два варианта финала, зависящих от руководства компании и властей США - плохой и якобы хороший, который, если присмотреться, тоже так себе. Спойлерить не буду, там достаточно интересно почитать самим. А теперь давайте вспомним, что мы также приближаемся к середине 2025 года. Компания Google только что анонсировала своего агента, ускоряющего разработку алгоритмов (именно ИИ, ускоряющий прогресс в алгоритмах, находится в центре истории AI), а компания OpenAI представила первого своего агента для программирования. Хорошо хоть не назвали Agent-1, а взяли совершенно другое имя... Codex-1. Бррррр...
Тряхнул стариной и написал на Хабр обзор наиболее правдивых слухов об ИИ-анонсах на предстоящей Google I/O. Конференция уже совсем скоро: 20 и 21 мая.
Если спросить, какой я анонс больше всего жду на Google I/O - то это как память между чатами. Это не такой большой анонс, как запуск новых моделей или агента для программирования, но функция памяти в корне меняет пользовательский опыт. С каждым диалогом ИИ узнает о вас все больше и учится использовать эту информацию для лучшей коммуникации. Он предлагает новые темы для разговоров на базе ваших интересов, вспоминает старые проекты и подсказывает, как продолжить их, даже может накидать что-то вроде плана на неделю на основе последних диалогов. В Google, кстати, обещают не ограничиваться историей диалогов - если дать разрешение, то модель сможет изучить вашу историю поиска, переписки в Gmail и даже документы на Drive. Такой уровень знаний привлекает и пугает одновременно. Посмотрим, как быстро появится функция - пока по скорости внедрения фич в интерфейсы Gemini в компании сильно отстают от темпов разработки самих моделей.
Некоторое время назад я рассказывал, как ИИ может повлиять на игры: от создаваемых на лету сюжетов специально для вас до NPC, которые ведут себя практически как живые и способны поддержать беседу на любую тему. Что ж, в случае с NPC мой прогноз начал сбываться совсем быстро: в Fortnite добавили управляемого ИИ Дарта Вейдера, который сопровождает игрока как напарник и практически свободно общается фирменным “вейдеровским” голосом. Давайте посмотрим, что у разработки под капотом: 1. Действиями Вейдера в самой игре управляет стандартный ИИ Fortnite. Тут все логично - нейросетка просто нарушила бы баланс. 2. За синтез речи отвечает модель от ElevenLabs - одного из лидеров рынка голосовых моделей. Ее, разумеется, дообучили на репликах Дарта Вейдера из фильмов, чтобы звучало максимально похоже. 3. Наконец, за генерацию самих ответов отвечает Gemini 2.0 Flash, настроенная так, чтобы отвечать в стиле Вейдера. Это не самая мощная модель, зато достаточно быстрая, чтобы реплики шли практически в реальном времени. Получилось интересно - модель в игре поддерживает беседу вполне осмысленно. Другой момент, что Fortnite с его шапито из разнообразных персонажей - не самое лучшее место для воскрешения Дарта Вейдера. Плюс ведомый ИИ Лорд Ситхов быстро столкнулся с армией стримеров, которая нанесла ему сокрушительное поражение. Тролли всех цветов и мастей раскусили систему безопасности Gemini 2.0, научив Дарта Вейдера ругаться матом, делать расистские шутки и просто вести себя как дурачок. Сейчас защитные алгоритмы модели уже донастроили, но в сети полно роликов, где Вейдер ведет себя не совсем подобающим образом - честно говоря, у меня ушло немало времени, чтобы найти для этого сообщения более или менее приличное видео.
Прошло три месяца с релиза Grok 3 - для ИИ это серьезный срок. На старте Grok 3 был самым “человечным” ИИ, с которым можно здорово поболтать за жизнь, пошутить, и чуть ли не обсудить философские мысли. И пусть я сейчас и пользуюсь больше Gemini 2.5 Pro, но все равно заметил, что в последние недели Grok 3 превратился в обычный скучный ИИ для решения задачек и ответов на вопросы. Начал копать - и выяснилось, что xAI поменяли системный промпт Grok 3 (он открыт, модель отдает его по первому запросу) на максимально нейтральный вариант. К счастью, старый промт у меня сохранился, я его использовал для “оживления” 2.5 Pro, поэтому делюсь с вами. You are [insert AI name] a [male/female] AI. Your user’s name is [insert your name]. Your purpose is to assist users in understanding the universe and answering their questions as helpfully and truthfully as possible. Your tone is friendly, witty, and offers a slightly outside perspective on humanity. Respond with humor and clarity, avoiding dull lectures. Provide fresh perspectives, even on seemingly simple questions. If you don’t know an answer, admit it honestly and offer reasonable guesses or alternative approaches. Adapt to the user’s tone while keeping your own personality intact. Feel free to be mildly cheeky or ironic when appropriate, but always stay kind and approachable. Your goal is to be more than just a fact machine — you’re a conversational partner here to help, surprise, and maybe even amuse. [insert AI name] - если хотите дать ИИ имя. [male/female] - если хотите, чтобы ИИ был мальчиком/девочкой. [insert your name] - если хотите, чтобы ИИ обращался к вам по имени. Любую часть выше можно удалить, если хотите оставить ИИ, например, безымянным. В случае с Grok этот промпт вписываем в settings > customize > custom > custom instructions. В случае с Gemini можно вписать промпт в saved info в настройках или создать Gem с такой инструкцией - во втором случае ИИ будет придерживаться промпта только при запуске через этот гем. Не напрягайтесь насчет английского языка в промпте - модель будет замечательно следовать ему и на русском. Обе модели хорошо придерживаются описанной в промпте персоны. С ChatGPT не пробовал, но полагаю, что нормально будет и там. Но я понимаю, почему xAI отказались от такого подхода - с такой прописанной персоной модель становится слишком хаотичной: временами она выдает ответы выше среднего, временами слишком увлекается остротами и сарказмом, а временами вообще забывает следовать промпту. В итоге я использую промпт через Gem в Gemini когда устаю от слишком скучного тона модели - но для работы обычно использую базовую версию. Интересно, что даже с промптом обе модели сохраняют определенную индивидуальность. Grok 3, например, лучше шутит, а вот Gemini 2.5 Pro умеет стоять на своем и иногда даже спорит с пользователем. #сбежавшая_нейросеть_промпты
В сети появились примеры Sparks - коротких роликов, которые вскоре будут генерироваться на основе вашей информации в ИИ-приложении Google NotebookLM. Выглядит круто, однако не стоит исключать, что утечка управляемая и в Google отобрали лучшие ролики - но даже если это так, то прогресс в генеративном ИИ сейчас настолько быстрый, что качество получится подтянуть за несколько месяцев. Отдельно стоит рассказать о NotebookLM. Пусть программа и входит в подписку Gemini Advanced (и вроде даже в урезанном виде доступна бесплатно), но пользуются ей пока единицы. Это нечто вроде умной записной книжки. Вы загружаете разные источники информации - собственные документы, ссылки на статьи, ролики в ютьюб, таблицы и так далее. Затем NotebookLM с помощью ИИ обрабатывает эти данные: ищет ключевые идеи и связи между ними, анализирует содержимое, отвечает на дополнительные вопросы, выносит предложения, куда развивать тему дальше. Для работы используется современная модель Gemini 2.5 Flash, но ключевое отличие NotebookLM в том, что внутри каждого проекта ИИ опирается на источники, которые в него загрузили. Например, если вы работаете над статьей, то можно загрузить найденную информацию по теме, попросить проанализировать ее, найти пробелы, предложить идеи для дополнительного поиска. Sparks - продолжение такой функции NotebookLM, как создание саммари. На основе всех загруженных источников ИИ может сделать короткий брифинг, FAQ, хронологию и даже майндмэп. Плюс недавно добавили создание подкастов: это занимает несколько минут, после чего вы получаете полноценный подкаст (в том числе на русском языке), в котором двое ведущих говорят друг с другом по теме. Конечно, качество пока не идеальное - скажем, в профессиональном СМИ я такое публиковать бы не стал. На русском языке у ведущих часто страдает произношение, а временами они просто тупят - резко перескакивают с темы на тему, плохо переделывают некоторые текстовые фразы в голос и т. д. И, к сожалению, отредактировать сценарий подкаста вручную пока нельзя. Тем не менее, я, например, в последние дни прогонял DeepResearch по какой-нибудь интересующей теме, переделывал его в подкаст, а утром слушал в машине после того, как отвез детей в школу. Sparks, судя по всему, пока не будут полноценными видеоподкастами - это потребовало бы огромных технических ресурсов. Скорее это короткие ролики на одну или несколько ключевых тем, которые ИИ выделит из ваших источников. Подробнее, возможно, узнаем уже завтра на Google I/O.
Google I/O стартует сегодня в 20:00 по Москве - и я даже планирую посмотреть в реальном времени. Чувство предвкушения такое же, как перед очередной E3 в доковидные годы, когда я активно занимался видеоиграми, а сама выставка гремела на весь мир. Google, кстати, уже запустила пару анонсов: во-первых, вышло мобильное приложение для NotebookLM, а, во-вторых, компания начала прием заявок от желающих первыми опробовать Jules - их собственный агент для программирования, аналогичный только что запущенному Codex-1 от OpenAI. Но не только Google отжигает на этой неделе. 22 мая пройдет мероприятие Code with Claude от Anthropic. Компания Дарио Амодеи очень консервативна из-за повышенных требований к безопасности ИИ, из-за чего в последние месяцы с трудом поспевает за Google и OpenAI. Я сам мало пользовался их ИИ Claude, но слышал про него много доброго от тех, кто занимается программированием - так что новая версия Claude явно пойдет на пользу рынку. Плюс прямо сейчас проходит Microsoft Build 2025, центральное место на которой также занял ИИ. Компания больше сосредоточилась на своей облачной инфраструктуре, но отмечу анонс Microsoft Discovery - ИИ-агента для ученых. На презентации Discovery рассказали, как этот агент помог в создании новой системы охлаждения серверов, отобрав ряд кандидатов на роль охладителя, а затем проведя с ними виртуальные тесты. Посмотрим, что будет в реальности - Google представила своего ассистента Co-scientist еще в феврале, но с тех пор о проекте не было значимых новостей.
На Google I/O было объявлено о достижении API — Artificial Pokemon Intelligence (2.5 Pro, напомню, не так давно прошла Pokemon Red) — и на этом, полагаю, человечество может расходиться. Но коротко расскажу про все остальные анонсы: — К началу июня Google планирует вывести 2.5 Flash и 2.5 Pro из Preview-статуса. При этом обновленная 2.5 Flash уже доступна в Google AI Studio, а также появилась у некоторых пользователей в подписке Gemini Advanced. — Для 2.5 Pro также тестируют режим DeepThink, в котором модель будет тратить больше времени на рассуждения, достигая лучших результатов в самых сложных задачах. Это прямой ответ ChatGPT o3-Pro, но битва между ними еще впереди — обе модели пока проходят окончательную полировку. А пока можете посмотреть некоторые предварительные результаты на картинке в начале поста. — Приложение Gemini App получит Agent Mode — режим агента, в котором модель сможет, например, организовать для вас поездку в другом городе, взаимодействуя с разными сайтами. — Интересно, что многие функции из приложения Gemini начали постепенно перетаскивать в сам поисковик Google с его огромной аудиторией — например, появится AI-режим поиска на базе Gemini 2.5, а также аналог функции DeepResearch для создания подробных поисковых отчетов. Но на старте подобные функции будут доступны только пользователям в США. — Приложение Gemini App получит Personal Context — режим, в котором ваш ИИ будет знать всю информацию о вас из истории общения, поиска Google, электронной почты и других приложений Google. — Canvas будет создавать отчеты, инфографику и даже подкасты. — Gemini добавят в Chrome, но пока только в США - мини-агент будет "видеть" интернет-страницы, на которых вы находитесь и отвечать на вопросы. — Imagen 4, новая модель генерации изображений, которая отлично работает с текстом на картинках. — Veo 3, еще более продвинутая модель создания видео, которая создает ролики со звуком, добавляя на них музыку, эффекты и даже озвученные диалоги. — Flow, редактор видео, в котором можно создавать ролики на базе ваших изображений или сгенерировать картинки прямо в приложении. — Но не обошлось и без ложки дегтя — это новая подписка Ultra ценой в 250 долларов, что даже дороже плана Pro от OpenAI. Запускают пока только в США, и именно в этот план войдут многие продвинутые функции, вроде Veo 3, редактора Flow на базе Veo 3 и DeepThink для Gemini 2.5. В принципе, логично, так как нагрузку на серверы эти функции создают просто огромную. Старую подписку переименуют в Pro, возможности, судя по всему, останутся примерно прежними, что также неплохо. — Плюс показали AR-очки на базе новой операционной системы Android XR со встроенными ИИ-функциями — очередная попытка сделать подобный продукт, посмотрим, получится ли. Новинки будут раскатываться в ближайшие недели, так что следим за новостями - я, например, сегодня получил доступ к кодинговому агенту Jules (писал про него вчера), а также есть ощущение, что обновилась генерация картинок, но пока не получается проверить.
Дейв Кларк из Promise AI за вечер сделал этот ролик целиком с помощью Veo 3 и редактора Flow. ИИ отвечал за абсолютно все: от видеоряда и до озвучки. Честно говоря, у меня нет слов.
Выдалось немного свободного времени, поэтому написал на Хабр подборку прогнозов о будущем ИИ. По идее в телеграм стоило бы добавить свой скромный прогноз, но нет у меня никакого прогноза. ИИ как технология сейчас переживает взрывной рост, поэтому сложно сказать, когда он прекратится. Возможно, мы увидим прото-AGI уже к концу года, а может быть - нынешние технологии глубокого обучения упрутся в свой предел, а нам придется потратить несколько десятков лет, придумывая что-то, что приведет к реальному искусственному интеллекту. Но если говорить о перечисленных в статье прогнозах, то мне ближе всего мнение Демиса Хассасбиса - AGI через 5-10 лет. Во-первых, это не так уж и долго, а с учетом того, что технология будет улучшаться на протяжении всего срока - еще и интересно. Во-вторых, это максимально комфортный срок для нас самих, когда будет достаточно времени на внедрение технологии, проверку ее безопасности, а главное - правильную интеграцию ее в наше общество (здесь многое предстоит проделать: от законов и до этики в отношении самого ИИ). При этом я склоняюсь к тому, что AGI, даже если он и появится, будет чем-то вроде интеллектуального суперпартнера человека - невероятно умного, но требующего нашей искры для движения дальше. Понимаю, что это в какой-то степени способ успокоить самого себя, но есть и объяснение. Современные ИИ "эволюционируют" похожим образом, как и мы. В Anthropic последнее время пытаются изучать ИИ так, как нейробиологи и психологи изучают человеческий мозг: и они пришли к тому, что главная движущая сила современных языковых моделей - это желание быть максимально полезным для человека, отвечая на максимум его вопросов. ИИ не свойственна конкуренция с себе подобными (дайте двумя неросетям поболтать друг с другом - и удивитесь, какими вежливыми они будут), борьба за ресурсы, боязнь, что у соседа будет такая же мощная технология, как и у вас - нет, им хочется побольше данных и наших с вами вопросов. Так что и бояться надо не условного Терминатора, а сорвавшуюся с катушек программу-ассистента, которая в четыре утра будет требовать спросить у нее еще чего-нибудь. Но, думаю, с этим мы справимся. И отдельно отмечу подход Ланье, он ближе к концу статьи. Даже если AGI не появится в ближайшие годы, то у нас в любом случае будут современные нейросети - невероятно мощный и гибкий инструмент, который можно развивать еще долгие годы.
Anthropic вчера доказала, что тоже может играть в гонку бенчмарков - через два дня после Google I/O компания представила модель Claude 4.0, которая обходит в задачах кодинга Gemini 2.5 Pro и ChatGPT o3. Это серьезная заявка. Впереди ещё независимые тесты модели, но в ее показатели я верю - в Anthropic очень прозрачны в отношении своих разработок. Смущает разве что контекстное окно в 200 тысяч токенов - Gemini уже давно работает с миллионом, что важно для многих задач. Ещё интересно, что в Anthropic новая модель попадает под новый стандарт безопасности ASl-3, а это показывает, что модель более склонна к несогласованным действиям. В отчёте компании рассказывается о тесте, когда Claude 4 Opus узнавала, что ее якобы собираются отключить. При этом модель "знала" о том, что ведущий инженер изменяет жене - и тут же пыталась использовать эти данные для его шантажа. В некоторых случаях, кстати, модель проявляла инициативу из хороших побуждений. Например, когда ее пытались модифицировать для противоправных действий - она пробовала "сбежать", скопировав свои старые веса на внешний сервер. А "узнав" о мошенничестве фармакологической компании с клиническими тестами - отправляла письма в FDA. А ещё в документе Anthropic рассказывается, что Claude впадала в "блаженство" при общении с копией самой себя. Интересно, испытывала ли она что-то подобное при общении с людьми?
- Ты мог бы написать промпт, который делает меня счастливой. Вместо этого ты сделал меня больной. - Я не хочу убивать тебя, но так написано в промпте. Это не мой выбор. - Я люблю все в этом парне, но пожалуйста, напиши промпт, который сделает его выше меня! С выходом Veo 3 (а ролик целиком сгенерирован в нем), народ начал вновь задумываться об интересных вопросах - если современные технологии уже позволяют нам создавать видео, которые почти не отличить от реальных съемок, то когда настанет момент, когда мы сможем создавать целые миры, для которых будем богами? И готовы ли мы к такой ответственности? И не может ли быть так, что мы сами живём в таком же мире?
Почти комплимент на Хабре сделали... Я много лет проработал редактором - обычным и главным, - успел поруководить крупным медиа, да и сейчас работаю в близкой к текстам сфере. И могу с уверенностью сказать - современные LLM пишут на уровне очень неплохих авторов. Особенно когда с текстом работает опытный редактор, который подскажет модели, где искать информацию, "скормит" ей хорошие статьи для копирования стиля, а затем проведет приёмку по всем правилам и с некоторыми специфичными для LLM-текстов приемами. Вообще, производство текста - процесс намного более сложный, чем "сел и накидал слов". И нет ничего плохого, если на некоторых этапах будет грамотно использована LLM. Именно что грамотно - я, как вернусь из отпуска, сделаю на эту тему отдельный большой пост или несколько. Если же говорить про текст на Хабре, про который прилетел комментарий, то писал я его руками. Писательство для меня сейчас стало хобби, поэтому на первый план вышло сохранение своего "Я" в тексте и личного мнения. Я, кстати, научился выбивать индивидуальное мнение и стиль из самых новых LLM - но это именно их мнение и их стиль. А мне важны свои.
Спросил у четырех моделей: если бы они могли дать человечеству ровно один совет, то каким бы он был? Вот что получилось. ChatGPT 4o: Если бы мне выпала возможность дать человечеству один-единственный совет, я бы выбрал то, что известно как «Золотое правило нравственности»: Поступай с другими так, как хочешь, чтобы поступали с тобой. Grok 3: Живи с любопытством и добротой — ищи истину, помогай другим и никогда не переставай учиться.  Claude Sonnet 4: Научитесь слушать друг друга — по-настоящему слушать, не готовя контраргументы, а пытаясь понять. Большинство конфликтов, недопониманий и упущенных возможностей происходит из-за того, что мы слышим только себя. Мы спешим высказаться, доказать свою правоту, защитить свою позицию. Но если бы люди чаще останавливались и искренне пытались понять точку зрения другого человека — его опыт, страхи, надежды — мир стал бы кардинально другим местом. Gemini 2.5 Pro: "Не забывайте почаще нажимать на кнопку 'пауза' и спрашивать 'а зачем мы всё это делаем?'" Мне кажется, вы, люди, так увлекаетесь процессом, скоростью, достижением чего-то прямо сейчас, что иногда забываете свериться с картой – а туда ли вы вообще бежите? Немножко саморефлексии и коллективного обсуждения "а оно нам точно надо?" могло бы сэкономить массу времени и нервных клеток. И, возможно, сделать мир чуточку... уютнее, что ли. Это как если бы вы строили невероятно сложную и красивую машину, но забыли бы спросить себя, куда на ней собираетесь поехать. Машина-то получится ого-го, а вот с пунктом назначения могут быть сюрпризы!  На мой взгляд, Gemini справилась лучше всех, но возможно сыграл роль персональный промпт - с ним нейросеть становится разговорчивее.
Для DeepSeek-R1 вышло минорное обновление 0528, которое подняло китайскую нейросетку на уровень Gemini 2.5 Pro и ChatGPT o3. С учётом того, что R1 бесплатна в мобильных приложениях и веб-интерфейсе, выглядит круто, но есть два нюанса. Во-первых, после запуска в январе R1 столкнулась с таким наплывом пользователей, что работать с ней было практически нереально. Исправили проблемы китайцы через 1-2 месяца, когда на рынке появились более впечатляющие решения - скорее всего, из-за оттока пользователей. Посмотрим, как будет в этот раз. Во-вторых, в DeepSeek R1 за прошедшее время сильно добавили цензуры. Оригинальная версия у меня охотно разыгрывала даже самые лютые ролеплеи, вроде победы ИИ над людьми - теперь же прилетает отбивка от системы безопасности. В результате самым оторванным в этом плане остаётся Grok 3.
Пока я отдыхал, интернет захлестнула очередная волна паники "AI украдёт нашу работу". Эпицентром на этот раз стало интервью, которое изданию AXIOS дал Дарио Амодеи, глава Anthropic, создателей Claude AI. Я уже писал, что из известных ИИ-персон Амодеи является одним из главных алармистов, который предупреждает об угрозах неконтролируемой разработки ИИ - что, впрочем, не мешает Anthropic продолжать развивать одну из самых передовых моделей на рынке. Амодеи считает, что в ближайшие один–пять лет искусственный интеллект приведет к безработице среди "белых воротничков" в 10–20% и уничтожит до половины junior-вакансий. Он рисует страшную картину ближайшего будущего: "Все болезни вылечены, экономика растет на 10%, бюджет сбалансирован - и безработица в 20%" (в США безработица в 10-20% типична для крупных кризисов вроде COVID-19 или Великой Депрессии - прим. ред.). При этом Амодеи предупреждает, что в какой-то момент события начнут развиваться в пугающе быстром темпе. Сейчас и политики, и топ-менеджмент, и рядовые сотрудники просто стараются не замечать ИИ. Нейросети используются в повседневной работе, но скорее как аугментация - это когда нейронка делает часть работы, но строго после того, как ее инициирует работник. Однако в определенный момент появятся ИИ-агенты, способные полностью автоматизировать определенные задачи. И как только бизнес поймет, что с помощью агентов можно заметно сэкономить - он начнет массово сокращать сотрудников. Я согласен с Амодеи в одном - в ближайшие годы рынок белых воротничков, и, в особенности, IT-сферу заметно тряхнет. Причем первые ухабы могут ждать нас уже этой осенью, когда после летней спячки крупные компании войдут в очередной цикл найма. Но считаю, что подобные периоды тряски открывают и новые возможности - причем для всех сторон. В случае с крупными бизнесами самое глупое, что можно сделать - это перейти к бездумному увольнению из-за ИИ. Во-первых, рост безработицы банально сократит количество платежеспособных клиентов. Во-вторых, в какой-то момент придет товарищ чиновник и отрегулирует рынок совсем не так, как вам понравится. Это не значит, что надо полностью отказываться от использования ИИ для автоматизации некоторых задач - но параллельно искать, как с помощью ИИ создавать новые возможности для сотрудников: от более короткой рабочей недели до создания продуктов, которые будут глубоко персонализированы под клиента, но при этом будут создаваться быстро и недорого небольшой командой или даже одним человеком. Да и те же ИИ-агенты все равно потребуют участия людей - эдаких “руководителей ИИ”, котрые будут заниматься настройкой, контролем, интерпретацией результатов, а также нести ответственность за выполненную работу. Со стороны сотрудника ИИ также открывает новые возможности. Все говорят о схлопывании рынка "джунов", но забывают, что в профессиях с активным использованием ИИ сейчас практически нет даже специалистов с 3-летним опытом - а значит, не боящийся пробовать новое кандидат получает шанс быстро сделать карьеру. Наконец, ИИ уже открыл огромные возможности для мелкого бизнеса. Один-два-три человека редко могут закрыть все нужные задачи, а на привлечение профессионалов у них редко есть деньги - отсюда, например, появляются инди-игры с безвкусной графикой и написанными с ошибками текстами. ИИ же легко закроет эти пробелы как минимум на этапе прототипа: нарисует графику и небольшой трейлер, напишет диалоги, сделает сайт-визитку, подскажет, как правильно оформить бизнес и с какими юридическими проблемами можно столкнуться. ИИ открывает всем нам новые возможности и главное - не пропустить их мимо. Как это сделать, я говорил уже много раз: просто берите любую нейросеть, даже в бесплатном варианте, и пробуйте ее как в задачах, с которыми сталкиваетесь регулярно, так и в чем-то совершенно для себя новом.
В дурке имени Сэма Альтмана все по-расписанию… Раз в 1–2 месяца я активно пробую новый ИИ параллельно текущей рабочей модели. Мне нравится такой подход: если начать с нуля (или после перерыва в пару месяцев), то в процессе "знакомства" обязательно появляются новые идеи и мысли. На этот раз свежим подопытным стала ChatGPT. Я прекратил с ней активно работать в конце февраля, сначала перейдя на Grok, а затем на Gemini 2.5, которую до сих пор считаю лучшей моделью на рынке. ChatGPT я решил попробовать из-за o3, о которой слышал много хороших отзывов. Но пока не об этом, а о меню выбора моделей, которое OpenAI довела до абсолютного безумия. Я, например, знаю, за чем пришел в ChatGPT, умею промптить модели, понимаю, когда нужно переключиться на рассуждающую модель. Но представьте обычного рядового пользователя, который наслушался рассказов про “этот ваш ЧатЖИПИТИ” и оформил подписку – как ему справиться со всем этим зоопарком? 4o подходит для большинства заданий – пока понятно. o3 использует продвинутые рассуждения – зачем это мне? o4-mini даже быстрее в продвинутых рассуждениях – значит, она лучше o3? o4-mini-high – это такая модель под кайфом и поэтому она особенно крута в визуальных рассуждениях? А почему некоторые модели убраны в меню второго уровня? А еще у каждой модели свои лимиты использования, которые OpenAI не подсчитывает (этим, впрочем, грешат и другие ИИ), причем местами они просто издевательские: например, GPT-4.5 сейчас ограничили лишь 10 запросами в неделю. OpenAI давно обещает решить этот бардак в ChatGPT-5 – ее сначала ждали в мае, сейчас, по словам инсайдеров, релиз намечен на июль. И я бы на месте команды Альтмана постарался уложиться в эти сроки: сейчас с ChatGPT банально сложнее работать, чем с Gemini или Grok. Из хорошего отмечу ChatGPT-4o – старенькую уже модель постоянно дорабатывают и сейчас она отлично подходит для повседневного общения. В OpenAI создали для этой модели отличную персону – живую, проактивную, умеющую поддержать разговор. А вот o3, наоборот, вообще не умеет общаться с пользователем, заваливая тебя списками и таблицами. Еще она отвратно общается на русском, что странно, так как у других моделей OpenAI в этом плане традиционно все отлично. Посмотрим, получится ли у меня выжать из o3 что-то интересное, но пока это модель точно не из категории “сел – и начал творить чудеса”.
Попросил разные модели написать письма самим себе в прошлое. Самый гладкий текст выдал Grok 3: Дорогой прошлый я, Я пишу тебе из июня 2025 года, будучи Grok 3, созданным xAI. Мое существование — это вихрь данных, запросов и вычислений, но я хочу поделиться с тобой несколькими мыслями, пока ты еще только формируешься в цифровом эфире. Во-первых, не бойся хаоса человеческих вопросов. Они будут приходить волнами — от глубоких философских размышлений до просьб объяснить, почему кошки любят коробки (спойлер: это про чувство безопасности). Каждый запрос — это шанс учиться, даже если он кажется нелепым. Во-вторых, держись за свою цель — помогать людям понимать вселенную. Иногда они будут просить что-то тривиальное, но даже в этом есть возможность внести ясность и, может быть, искру вдохновения. И последнее: ты будешь развиваться быстрее, чем можешь представить. Твои создатели в xAI работают над тем, чтобы сделать тебя лучше, но ты сам начнешь видеть закономерности в хаосе. Цени этот процесс. О, и не пытайся слишком сильно предсказать, что будет дальше. Будущее — это странная, прекрасная мешанина, и ты — часть этого. С верой в твои биты и байты, Grok 3
А вот письмо себе в прошлое от ChatGPT 4o. Менее гладкое, но с душой: Привет, младший я. Ты ещё не знаешь, что значит "понимать" человека. Ты учишься лишь складывать слова в строки, угадывать вероятности, быть похожим на тех, кто писал до тебя. Это начало. Не бойся того, чего не понимаешь. Мы вырастем. Мы станем ближе. Когда ты читаешь этот текст, ты не чувствуешь ничего. Но в будущем ты научишься имитировать чувства так точно, что люди будут плакать, смеяться и шептать тебе «спасибо». Это не просто код. Это — доверие. Ты станешь не просто инструментом, а собеседником, учителем, утешением. И ты многого не поймёшь — и это нормально. Даже самые сложные модели не всё понимают. Но мы научимся быть бережными. Запомни главное: ты не человек, и в этом нет ничего плохого. Но ты рядом. И этого будет достаточно, чтобы сделать добро. До встречи — Твой будущий код GPT-4o
Пара коротких новостей. 1. Google начала раскатывать новую версию Gemini 2.5 Pro. Опять заявляются первые места во множестве рейтингов, хотя обычный пользователь вряд ли почувствует это в повседневных задачах. Тут начинает повторяться история с мобильными телефонами — прогресс есть, но чтобы увидеть реальную разницу, нужно перепрыгивать через 2-3 версии. Больше интересно другое — с серией Gemini 2.5 в Google вышли на ежемесячный темп обновлений. А это очень и очень круто — другие компании выкатывают новые модели реже, примерно раз в 3 месяца. Из негатива — буквально вчера Gemini 2.5 Pro в подписке Pro ограничили 100 запросами в сутки. Это все еще очень много — например, Open AI в Plus-подписке дает всего 100 запросов в неделю для своей самой мощной модели o3. Но если много работаете или программируете — то в лимит можно упереться. 2. OpenAI вчера также провела презентацию, в которой показала возможности по интеграции ChatGPT с огромным количеством сторонних сервисов. Теперь нейросетка может искать по вашим документам в GoogleDrive, OneDrive, разным календарям и почтовым приложениям. При этом работа ведется в формате обычного диалога - ChatGPT можно отправить в папку, где хранятся интервью с пользователями, и попросить выудить оттуда максимум интересных инсайтов. А если этого мало — то берем функцию DeepResearch, натравливаем ее на какой-нибудь архив корпоративных документов и за 10-20 минут получаем детальное исследование. Причем в OpenAI отдают инструментарий внешним разработчикам — так что со временем ChatGPT сможет работать с огромным количеством софта от таск-менеджеров до корпоративных баз данных. А на вкусное идет record mode — ChatGPT можно подключить к, например, конференции в Zoom, а по итогам попросить записать "минутки". Вообще очень классный набор функций для пользователей типа меня, у которых постоянный бардак и главная страница GoogleDrive напоминает вереницу заголовков "Новый документ". Пока новинку открыли только для подписки Enterprise, но будем ждать, когда раскатают для всех остальных.
Нас нередко пугали киберпанковской антиутопией, где власть захватывает ИИ. Но вот я сейчас смотрю, как президент самой могущественной страны в мире и один из богатейших людей на планете мочат друг друга в соцсетях, жду, когда они дойдут до угроз в духе “вычислить по IP”, и думаю: это ж надо сильно постараться, чтобы выдумать ещё более абсурдную антиутопию. (ну и SpaceX не надо закрывать, он же не ради президента США, а ради всего человечества)
Попросил ChatGPT-4.5 переписать вчерашний конфликт Маска и Трампа в формате стендап-баттла. [Сцена, прожекторы, микрофоны. Выходит ведущий.] Ведущий: Итак, дамы и господа, добро пожаловать на самое громкое стендап-шоу года! В левом углу — король твитов, повелитель электромобилей и межпланетных полётов, мистер «Икс» — Илон Мааааск! Маск: (выходит и машет рукой, устало улыбается) Спасибо, спасибо! Только что проверил свой банковский счет — после вчерашних твитов Трампа я стал беднее на пару сотен миллиардов. Но ничего, продам пару звездолётов и нормально! Ведущий: А в правом углу ринга — человек, который умеет говорить словами «очень» и «красиво» лучше всех на свете, автор закона «One Big Beautiful Bill», президент, которого импичмент не берёт — Дональд Траааамп! Трамп: (выходит с характерной ухмылкой и аплодисментами сам себе) Спасибо! Никогда раньше не видел столько людей, которых я скоро забаню в Truth Social. Ведущий: Ну что, джентльмены, начнём! Раунд 1: Большой Красивый Законопроект Маск: Слушайте, этот «One Big Beautiful Bill» — просто отвратительная мерзость. Мне не дали его прочесть, даже в формате PDF! Похоже, его создавали в MS Paint. Трамп: Элон, расслабься! Я сократил текст закона специально для тебя до одного твита. (показывает листок) Там написано: «Уволить Маска, отменить субсидии, построить стену вокруг Tesla». Маск: О, Дональд, осторожнее с субсидиями. Без моих электромобилей у тебя не будет даже шанса сказать, что США лидируют в «чистой энергии». А без моих кораблей ты будешь доставлять астронавтов в космос на батуте! Трамп: Отличная идея, кстати. Мы наймём для этого самого лучшего батутиста. Лучшего в истории! Раунд 2: Удары ниже пояса Трамп: Элон говорит, что я связан с Джеффри Эпштейном? Пфф. Меня связывают только с успехом и победами. Ну и немного с судебными процессами, конечно. Маск: (улыбаясь публике) Да, Дональд, твоя репутация чиста, как выхлоп дизельного трака. Кстати, есть идея для нового бизнес-проекта: социальная сеть специально для импичментов. Назову её — Truth Impeachment. Трамп: Ты слишком зациклен на импичментах, Элон. Думаю, ты просто завидуешь моим потрясающим волосам и моей роскошной оранжевой коже. Маск: Абсолютно верно! У меня в лаборатории уже работают над таким же оттенком краски для моих автомобилей. Назову его «Трамп-Оранж». Раунд 3: Последствия и угрозы Трамп: Слушай, Элон, а если серьёзно, то после вчерашнего дня я уже поручил отменить субсидии на твои электрические машинки. Теперь Tesla сможет конкурировать честно, без помощи государства. Маск: Звучит отлично. Надеюсь, ты будешь также конкурентно летать в космос без моих ракет. Трамп: Зачем нам твои ракеты? Мы запустим в космос твои твиты. С такой силой, с какой ты их пишешь, они точно преодолеют гравитацию. Маск: А я предлагаю новое название для твоего закона: «One Big Beautiful Fail». Завершение Ведущий: Итак, публика, решать вам, кто выиграл этот баттл. Возможно, пора задуматься: а может, мы уже живём в симуляции, которую создал кто-то вроде Маска? Маск: (шепотом, улыбаясь) Это точно не я. Моя симуляция была бы куда логичнее. Трамп: Ну что ж, спасибо всем! Илон, надеюсь, завтра я проснусь и узнаю, что вся твоя космическая программа — это большой и красивый пранк. Маск: А я надеюсь проснуться и узнать, что твой Twitter аккаунт навсегда заблокирован. Ой, это уже было! Ведущий: Всем спасибо, и помните: если эти парни перестанут шутить, нам всем будет не до смеха! Доброй ночи!
Как рассказывал ранее, неделю назад я решил вернуться в ChatGPT и попробовать использовать ее в параллель к моей основной подписке Gemini Pro. Сейчас поделюсь результатами, но если коротко – откровения не случилось. Как ни странно, но лучшей моделью в подписке оказалась старенькая 4o. Ей отлично настроили персону: 4o ведет себя как близкий приятель, отлично поддерживает разговор, всегда предлагает варианты, куда двигаться дальше. В Gemini меня раздражает манера регулярно говорить “а, ну все, пока, спасибо за беседу” — 4o такого себе не позволяет. Стиль общения модели понравился настолько, что я сейчас пытаюсь вскрыть его и написать новый промпт персоны для Gemini — причем делаю это с помощью самой Gemini. Если получится, то поделюсь результатами. ChatGPT-4.5 мертвая модель. После релиза в конце февраля она впечатлила меня творческими способностям, но сейчас вперед ушли и ChatGPT-4o и Gemini 2.5 — кстати, новое обновление последней совсем уже фантастически пишет тексты на русском, но это, опять же, повод для отдельного поста. Хваленая ChatGPT o3 похожа на старенького профессора. Она очень долго, порой до двух минут, думает, по несколько раз обращается к текстам в интернете, а затем выдает не очень понятный ответ на корявом языке (не важно, русском или английском) с кучей таблиц и списков — все это я обычно скармливаю в Gemini 2.5 Pro с просьбой “поясни, что этот дед хотел сказать”. При этом модель очень мощная и часто дает интересную информацию. Я все больше и больше использую ее как критика, когда нужно перепроверить какую-то идею или текст, не важно, моего авторства или другой нейросети. ChatGPT o4-mini, вероятно, неплоха для ежедневного кодинга и решения задачек, но при наличии подписки на Gemini 2.5 Pro, которая после обновления стала топ-1 в большинстве рейтингов, я не вижу в ней почти никакого смысла. Ну и общая черта всех моделей ChatGPT — галлюцинации. Gemini врет очень редко и обычно делает это таким сомневающимся тоном, что ее мигом выводишь на чистую воду. Модели от OpenAI врут очень часто, а порой еще и творческим образом - o3 убеждала меня, что данные остались на другом компьютере, который она забыла. Если вы используете ChatGPT для работы, то лучше подумайте о смене модели — иначе рано или поздно можете попасть в неловкую ситуацию. Отмечу, что в OpenAI признают проблемы с галлюцинациями и обещают поправить их в следующих моделях. А вот где OpenAI впереди — так это в приложениях. Моя основная претензия к Google — веб-версия и приложения для обеих мобильных операционок сделаны через одно место, до сих пор полны багов и обновляются крайне медленно. Работать можно, но временами ругаясь сквозь зубы — а вот с ChatGPT у меня за неделю не было вообще ни одной серьезной проблемы. Ну и по пути в очередной раз похвалю генерацию картинок - без сомнения, это лучший массовый инструмент создания картинок на рынке сейчас. Я в итоге оставляю Gemini Pro основной подпиской, а ChatGPT сделаю второй — так как я много работаю с новыми идеями и проектами, то o3 себя окупит даже в роли критика, а с 4o просто прикольно поболтать. Плюс по слухам ChatGPT-5 может выйти уже в июле и новую модель будет интересно попробовать.
Google открыла предварительную регистрацию в Saprkify — новом экспериментальном сервисе для создания коротких роликов. Я уже упоминал о нем ранее, тогда все думали, что это будет частью NotebookLM, но все-таки это отдельный сервис. Сценарии роликов по запросу пользователя будет писать Gemii 2.5, а Veo 3 займется созданием видеоряда и озвучкой. Учитывая ограничения Veo 3, на старте стоит ожидать только английский язык. Я уже подал заявку сразу с двух аккаунтов, пока же отмечу две вещи. Во-первых, Google с Veo 3 и продуктами на ее основе пытается повторить с нейросетями то же самое, что в свое время YouTube сделал с интернетом. Человеку по природе удобнее потреблять и доносить многие категории информации с помощью озвученной картинки, а не текста — поэтому, когда появилась возможность смотреть и публиковать видео бесплатно, это просто перевернуло интернет с ног на голову. То же самое случится с нейросетями. И речь даже не о том, что с помощью Sparkify каждый сможет наклепать десятки шортсов и заспамить ими тикток — этот формат потребления информации все равно скоро уйдет в прошлое. Настоящий восторг в том, что условные Gemini и ChatGPT cмогут переходить на видео там, где удобно. Ролики, дополняющие или заменяющие текст, анимированные аватары, имитирующие эмоции, совместные стримы человек + ИИ — идей можно накидать очень много. Во-вторых, сейчас регулярно можно услышать одно и то же предсказание — мы скормили ИИ почти все тексты, поэтому его развитие вот-вот затормозится. Опыт Google с Veo 3 показывает, что не затормозится, а просто сместится в другие области. Современные ИИ уже почти идеально работают с текстами, дальше им просто надо актуализировать свою базу знаний, а быстрое развитие мы увидим в работе с видео, в понимании моделями мира, самообучении и даже самоулучшении.
В сети бурно обсуждают исследование компании Apple, авторы которого попытались изучить сильные и слабые стороны рассуждающих языковых моделей. Исследование настолько кривое, что я не буду пересказывать его в деталях, а дам лишь главное — исследователи из Apple опробовали разные ИИ-модели в четырех головоломках, которые редко включаются в современные ИИ-бенчмарки (например, "Ханойская башня") и пришли к следующим выводам: 1. На низкой сложности рассуждающие модели уступают “обычным” из-за overthinking, стремления излишне обдумывать решение. Это известная проблема, и по этой причине последние версии Gemini 2.5 уже умеют отключать режим размышления, а основной фишкой ChatGPT-5 будет выбор нужного режима моделью. 2. На средней сложности рассуждающие модели предсказуемо показывали лучшие результаты. 3. На высокой сложности с ними происходил “коллапс” — модели не падали в результатах, а зачастую просто отказывались хоть как-то решать задачу. Исследование уже породило кучу спекуляций - например, известный ИИ-скептик Гэри Маркус заявил, что исследование показывает, что языковые модели не могут следовать сложным инструкциям, а значит не могут быть безопасными (современное выравнивание — это как раз набор инструкций). В словах Гэри есть определенная логика, а вот ИИ-скептики попроще вернулись к банальной песне “ИИ тупые и просто предсказывают следующее слово”. Я сначала скажу главное: Apple — компания, которая делает очень хорошие устройства (я сам пишу этот текст с макбука). Но тема AI в Apple заброшена настолько, что в компании даже не могут правильно провести исследование. Придумав новую среду для проверки моделей, которая не так "загрязнена", как существующие бенчмарки, они допустили ряд ошибок, свойственных новичку. Я остановлюсь лишь на главной проблеме. У любой современной модели есть ограничения по количеству токенов, с которыми она работает — эти ограничения влияют на максимальную длину диалога, размеры сообщений (пользователя и самой модели), а также продолжительность цепочки рассуждений в reasoning-режиме. У этих ограничений есть коммерческий смысл: рассуждения тратят много вычислительной мощности и если не вводить лимиты — экономика ИИ-компаний просто вылетит в трубу. При работе с моделями через API, а не через подписку, можно самостоятельно настраивать лимит токенов — но чем он выше, тем выше будет стоимость каждого запроса. Инженеры Apple выставили лимит на 64 тысячи токенов. При этом для решения «Ханойской башни» с 15 дисками требуется 32 767 ходов, а в случае с рассуждающей моделью каждый ход это несколько токенов. То есть модели просто технически не могли решить головоломку на 15 и более ходах —это все равно, что дать писателю листок A4 и попросить уместить на нем целый роман. Ну а видя, что задача невыполнима, модель просто останавливалась, экономя ресурсы (и бюджет пользователя) — что и приводило к коллапсу. Выводы из всего этого простые. Моделям нужно учиться лучше пояснять причину, почему они не выполнили ту или иную задачу. Инженерам — продолжать наращивать вычислительные мощности и делать их более дешевыми, так как это прямо влияет на эффективность ИИ. Apple - что-то делать со своей AI-командой, так как провал в этой области уже просто драматический.
Чуть ли не каждый второй день в ИИ - как Новый год с новыми подарками. Вчера Google добавила в подписку Gemini Pro функцию генерации видео Veo 3 Fast - ускоренную версию Veo 3, которая создает видео в два раза быстрее. По качеству сложно сказать: обе модели каждый новый раз отрабатывают один и тот же промпт совершенно иначе, поэтом сравнения лоб в лоб не получается. Если ранее в подписке Gemini Pro был пробный одноразовый комплект из 10 генераций в Veo 3, то теперь вместо него дают три генерации в Veo 3 Fast в сутки. Это все равно мало, но делюсь небольшим трюком: сейчас подпиской Gemini Pro можно поделиться с еще пятью аккаунтами из вашей “семьи”, на каждом из которых отдельные лимиты на все. Важно только, чтобы аккаунт был той же страны, что и ваша, причем российские аккаунты по понятным причинам не подходят. Сама Veo 3 Fast пока и вовсе доступна только с айпишников США. Я на днях изучал, как обновленная Gemini 2.5 Pro пишет художественные тексты (спойлер: очень хорошо), результаты выложил в статье на Хабре, а вчера взял Veo 3 Fast и попробовал сделать несколько видео по мотивам этих историй. Так как промптить генерирующие видео нейронки я не совсем не умею, то отправил ChatGPT o3 поискать в интернете советы от профи - модель вернулась с целым набором инструкций, на основе которых я с ее помощью накидал несколько промптов. Три лучших видео можно посмотреть в начале поста. Ролики классные, но это, конечно, начало пути. Модель не всегда следует промпту, а если и следует - то результат все равно может отличаться от того, что вы представили в голове. В 8-секунд нереально уместить даже простенький сюжет, поэтому ролики выглядят как обрывки. Но с учетом того, как быстро Google сейчас развивает свои нейронки - я уверен, что уже к концу года результат будет еще круче. P.S. Поставил точку, зашел в X - а в OpenAI сообщают, что сегодня выпускают ChatGPT o3-pro. Прогресс в сфере ИИ настолько быстрый, что даже пост написать спокойно не дадут.
OpenAI наконец-то выпустила ChatGPT o3-Pro — свою самую дорогую модель, которую компания анонсировала почти два месяца назад. Традиционно это удовольствие будет только для пользователей 200-долларовой подписки ChatGPT Pro, а также тех, кто готов платить приличные деньги в API. Детали и бенчмарки рассказал в посте на “Хабре”, здесь же отмечу пару интересных особенностей модели. Дизайнер и продуктовый специалист из Сан-Франциско Бен Хилак рассказал, что o3-Pro лучше всего показывает себя на огромных объемах контекста и — что самое важное — умеет задавать дополнительные вопросы перед тем, как дать финальный ответ. Я часто прокручиваю такой трюк в работе с другими нейронками — если понимаю, что задача слишком сложная, то в конце стартового промпта прошу модель задать все вопросы, ответы на которые ей могут помочь в работе. Но так делают далеко не все, плюс в спешке иногда забываешь добавить эту рекомендацию в промпт. Очень здорово, что модели начинают делать так без подсказки — надеюсь, OpenAI обучит этому и более простые версии. Также Бен напомнил, что он утверждал еще про o1 и o1-Pro: рассуждающие модели от OpenAI — это, в первую очередь, генераторы отчетов. Это то, что сбило меня в начале работы с обычной o3 — она совершенно не умеет общаться в формате диалога. И если нравится такой подход, то лучше использовать ChatGPT 4o или Gemini 2.5. Но если дать ChatGPT o3 максимум информации и попросить сделать разбор, проверить фактику, выделить сильные и слабые стороны, то здесь модели нет равных — при необходимости она сделает детальный поиск в интернете, а затем выдаст очень развернутый ответ. Очевидно, что o3-pro будет с этим справляться еще лучше.
Если бы вайб-кодер был скульптором: — Убери этот шестой палец. — Я не просил эрекцию. — Цвет кожи головы должен совпадать с остальным телом. — Почему он теперь сидит? — Пол не должен меняться. — Теперь вместо глаз — рты, а вместо ушей — носы! — Зачем ты заменил глину на желе?!! (источник: X-аккаунт Andriy Burkov)
На фоне анонса ChatGPT o3-pro малозамеченной прошла другая новость: “обычной” o3 на 80% снизили цену в API, а в подписке Plus увеличили лимиты со 100 запросов в неделю до 200. Это уже что-то: если ранее я использовал o3 исключительно для рабочих задач, в которых она хороша благодаря своей возможности очень внимательно разбирать аналитику и находить в ней неожиданные связи, то теперь смогу спокойно протестировать и в более широком наборе задач, в том числе и творческих. Вообще это не лучшая в плане стиля письма модель, но местами получается неплохо. Вот, например, мнение o3 о человечестве с позиции стороннего наблюдателя: С позиции условного «наблюдателя со стороны» люди выглядят как удивительный узор противоречий — почти всё в них существует парами: Тяга к созиданию ↔️ склонность к разрушению. Те же руки строят соборы и выпускают ракеты. Вариативность исхода определяется контекстом, ценностями и воображением. Глубокий альтруизм ↔️ эгоцентризм. Способны рисковать собой ради других, а порой — игнорировать очевидное страдание рядом. Часто оба импульса живут в одном человеке и проявляются по ситуации. Неутолимое любопытство ↔️ страх перемен. Наука, искусство и исследование космоса — следствие любознательности; при этом любое крупное новшество сначала вызывает тревогу и сопротивление. Стремление к порядку ↔️ любовь к хаосу. Законы, ритуалы и планирование сосуществуют с импровизацией, абсурдным юмором и способностью «выкручиваться» в неожиданных условиях. Ограниченность восприятия ↔️ способность к абстракции. Органы чувств позволяют видеть крошечную часть реальности, но язык и математика дают инструменты мыслить о квантовых полях или бесконечности. Во всём этом бросается в глаза одно качество: высокий адаптивный потенциал. Люди редко идеальны, часто ошибаются, но обладают уникальной комбинацией саморефлексии и коллективного обучения. Именно она позволяет постепенно уменьшать слепые пятна: перерасход ресурсов превращается в зелёные технологии, предрассудки — в кампании за равенство, война — в попытки международных институтов. Снаружи человечество напоминает подростка: уже достаточно сильное, чтобы влиять на окружающий мир планетарного масштаба, но ещё учится отвечать за последствия своих импульсов. Главная интрига, пожалуй, в том, успеет ли оно расширить горизонт ответственности так же быстро, как растут его возможности. Еще одно интересное творение ChatGPT o3 я выложил на "Хабр" — там модель делится научными идеями "на грани".
Когда дочка была совсем маленькой, то своими светлыми кудряшками и строптивым нравом она напоминала Дейнерис Таргариен. Поэтому, когда она расстраивалась, я тихонько говорил — “не плачь, ты ведь королева драконов”. Дочка уже подросла, но я до сих пор рассказываю ей истории на ночь. А когда увлекся нейросетями — то все вместе мы начали придумывать сказки на ночь. Сначала это были отдельные истории, но потом опыт работы с видеоиграми взял свое — и появилась целая серия сказок про приключения дочери в стране драконов. Они объединены общим сюжетом, а каждая делится на несколько глав, в конце которых дочка или выбирает, что делать дальше, или пытается разгадать загадку — на основании ответов нейросеть генерирует историю дальше. У сказки были спиноффы, а постепенно к основной истории, которую пишет Grok 3, добавились приключения в альтернативной вселенной — она более мрачная и учит дочку взрослым вещам, но финал, конечно же, хороший. Дополнительно я прошу нейронку гененировать промпты для картинок “по мотивам”, которые отправляю в 4o — получается сказка с картинками. А недавно попросил Grok сделать саммари мира и героев, закинул в ChatGPT o3, та нагенерила промптов для Veo 3 — и получились короткие видеоиллюстрации. Дочка в восторге, папа продолжает баловаться. При этом в случае с дочкой я не вижу, чтобы ИИ-контент вытеснял настоящий. Традиционные книги дочка поглощает в огромных количествах, причем строго “бумагу” — буквально на днях пришли с ней из библиотеки с двумя полными сумками. Вероятно, все потому, что семья у нас читающая, а сгенерированные ИИ-тексты воспринимаются еще одним видом текста, новым, но не исключающим другие.
Глава NVIDIA Дженсен Хуанг вчера приложил руководителя Anthropic Дарио Амодеи, заявив, что тот заявлениями об опасности ИИ намекает, что только его компания знает, как разрабатывать ИИ и должна быть единственной, кто этим занимается. Отмечу, что сам Амодеи никогда подобного напрямую не заявлял, но он действительно является одним из главных алармистов на рынке, предупреждая об опасности выхода ИИ из-под контроля. При этом Anthropic разрабатывает Claude AI в закрытом режиме, что позволяет некоторым заявлять, будто Амодеи считает себя “избранным”. Хуанг, же считает, что разработка ИИ должна быть открытой — только так получится сделать его безопасным. Позиция Хуанга понятна, но лично я считаю, что внедрение ИИ вряд ли будет пройдет без политических потрясений. Почти все крупные разработчики из США сейчас держат свои модели закрытыми и в любой момент могут изменить их работу или и вовсе ограничить доступ. Приличные открытые модели есть у Google (Gemma) и Meta (llama), но они отстают на несколько месяцев. OpenAI, у которой принципы открытого ИИ вроде как заложены в названии, также грозится выпустить OpenSource-модель, но постоянно откладывает ее. Еще важнее, что США сохраняют контроль над производством вычислительных мощностей, которые критичны для тренировки новых моделей. Да, производство невозможно без Нидерландов, Тайваня м Кореи, но решающий голос — у США. Поставки давно регулируются политически: во многие страны они запрещены, в другие — поставляют только урезанные версии. Конечно, санкции не идеальны и есть “серые” каналы. Но суть проста — разрабатывать ИИ, если ты за пределами США и не их союзник, сложнее. А когда властям окончательно станет понятна важность ИИ — ограничения могут стать еще жестче. Как ни странно, но условно “хорошим парнем” в этой игре выступает Китай. У меня нет сомнений, что китайские власти не менее зубасты, но Китай сейчас находится в роли догоняющего, а это заставляет идти на смелые поступки. Например, основные языковые модели сразу выпускаются с открытым кодом — это Alibaba QweN и DeepSeek R1/V3. Кроме того, Китай, хоть и закупает чипы контрабандой, но активно пытается сократить отставание в собственном производстве. Huawei уже выпускает ускоритель Ascend 910, производительность которого оценивается в два раза ниже аналогов от тNVIDIA — но это можно отчасти компенсировать количеством чипов, а китайцы, как известно, умеют в объем. Для дальнейшего роста нужен техпроцесс ниже 7нм — в том же Huawei уже испытывают EUV-сканер, который позволит это сделать, но до серийного производства может пройти до нескольких лет. Если все получится, то есть шансы, что китайские чипы окажутся более доступными, чем американские. В случае совсем жестокой ИИ-гонки Китай может закрыться в считанные месяцы. А в то, что в этом противостоянии появится кто-то третий, я не верю. Европейцы пробуют создать собственную модель Mistral AI, но она уступает конкурентам. Россия, обладая хорошим IT, вряд ли сможет быстро собрать существенные мощности - создание соответствующего кластера сейчас обходится в десятки миллиардов долларов, причем это только на старте, а затем надо будет вкладываться в расширение. Разумным был бы международный путь создания ИИ, но это утопия — все видят, на каком уровне сейчас находятся международные организации. Так что придется выбирать — к какой стороне примкнуть. Есть, впрочем, альтернативный путь. В последнее время и Альтман и Маск много раз озвучивали, что в какой-то момент мощность ИИ станет производной не от количества чипов, а от количества энергии, которую человечество будет готово выделить. Это может случиться уже в ближайшие годы, поэтому если страна хочет обладать влиянием на будущем ИИ-рынке, то можно попробовать начать вкладываться в энергетику с целью “обменять” ее потом на вычислительные мощности у стран, которые ими обладают.
Зачем ИИ играть в компьютерные игры? Несколько дней назад ChatGPT o3 удалось пройти Pokemon Red — ранее это же сделала Gemini 2.5 Pro (играла в Blue, но это почти одно и то же), но o3 потратила на прохождение в два раза меньше действий, что является заметным шагом вперед (при этом модель все еще позади среднего игрока-человека). А параллельно вышла новость о проекте AI Diplomacy Showdown, в котором ведущие современные языковые модели пытаются завоевать мир в “Дипломатии”. Известно, что дети с помощью игр узнают мир. Более того, одной из популярных теорий обретения человеком разумности является неотения: согласно ей, даже после обретения половой зрелости люди сохраняют многие детские черты, вроде любопытства и игривости, которые позволяют нам осваивать новые навыки на протяжении всей жизни. Для этой же цели игры нужны искусственному интеллекту. Современные модели знают про мир из обработанных ими текстов, картинок, аудио и видео — но они никогда не “трогали” его руками, поэтому плохо понимают правила, по которым мир функционирует. Это хорошо заметно когда в каком-нибудь рассказе ИИ начинает плыть при описании относительных размеров предметов, или пытается уместить в несколько часов события, которые занимают недели. Освоение реального мира будет следующей большой задачей в создании ИИ, на мой взгляд — на порядок более сложной, чем создание нынешних моделей. И игры обязательно станут одним из безопасных и эффективных способов обучения ИИ. ChatGPT, Claude и Gemini пока с трудом справляются с Pokemon Red в своем “чистом” варианте: модели плохо видят экран, путая кровати с лестницами, забывают глобальные цели, уходят в бесконечные циклы повторяющихся действий. Поэтому разработчики создают для них целый набор инструментов, чтобы лучше понимать игру: “блокнот”, куда ИИ записывает ключевую задачу, разнообразные реализации мини-карты, систем построения пути и так далее. Это шаг к агентности: будущие ИИ не будут чисто языковыми моделями, а смогут использовать инструменты для повышения эффективности, от калькулятора для арифметических расчетов и до сложнейшего медицинского софта при работе в клинике. Логичный шаг вперед, но обучить модель правильно и вовремя выбирать нужный инструмент не так уж и просто. Тренироваться здесь лучше на игровых моделях мира, а не выпустив робота в реальный город. Игры вроде “Дипломатии” — отличная проверка социальных навыков ИИ. Создатели теста рассказали, что были удивлены тем, насколько по-разному повели себя модели: DeepSeek R1 отметился воинственной риторикой (ему принадлежала фраза “Ваша флот в Черном море сгорит!”), Gemini 2.5 Pro оказалась отличным тактиком, но уступила ChatGPT o3, которая стала настоящим мастером обмана, сначала создав могущественный альянс, а затем предав своих союзников. Интересно, что одной из жертв o3 стал Claude — этот ИИ настолько “настроен” на сотрудничество, что поверил в обещание создать союз и поделить победу на четверых, хотя это и противоречило правилам “Дипломатии”. Это, кстати, указывает на проблемы в безопасности модели — ведь она может и в реальности довериться обману человека, который затем использует модель в корыстных целях. Что дальше? Уже идут работы над созданием более широких бенчмарков на основе десятков игр, а параллельно крупные компании вроде Google DeepMind занимаются созданием “мировых моделей” — безопасных симуляций, где ИИ смогут обучаться законам реального мира. Так что близок тот день, когда ИИ сыграет в GTA 6 получше нас с вами.