Помню, как в школе мне впервые задали сделать презентацию на классный час. Тогда я едва дружил с этими сервисами, и весь процесс казался настоящим испытанием. Я сидел несколько часов за красным фоном, пытаясь поставить текст и подобрать картинки. Волновался, переживал, и, честно говоря, результат был далёк от идеала. Проходит время, а мы видим, как быстро всё меняется. Сегодня презентации можно создавать почти мгновенно, а нейросети умеют сами подбирать тексты, искать иллюстрации, предлагать оформление. Конечно, всегда результат требует доработки и факт-чекинга. И именно поэтому сегодня хочется познакомить вас с десятью сервисами, которые помогут сделать презентацию. Они не всегда сделают всё за вас, но отлично формируют костяк, с которым можно работать дальше и получать действительно крутой результат. Приятного чтения! Читать далее
🕒 13.03.2026 12:41
Читать полностью
На одном из недавних мероприятий эксперты из Сбера, Яндекса и red_mad_robot обсуждали внедрение ИИ в жизненный цикл разработки продукта — AI PDLC. В выступлениях снова и снова звучала одна и та же мысль: роль разработчика меняется. Всё чаще он не пишет код вручную, а формулирует задачу для ИИ, проверяет результат, удерживает архитектурный замысел и задаёт рамки. Если выстроить эту дискуссию в логике «от стратегии к человеку, от человека — к производственной практике, а затем — к рыночным кейсам», картина становится особенно ясной. Сначала — взгляд Сбера на зрелость AI‑driven разработки. Затем — разбор того, что этот сдвиг делает с людьми. После этого — разговор о том, что действительно работает в корпоративной среде. И уже потом — внешние кейсы Яндекса и red_mad_robot, на которых видно, как меняется повседневная инженерная работа и экономика выпуска продукта. Читать далее
🕒 13.03.2026 12:16
Читать полностью
Какая ИИ-модель лучше всего пишет код в реальных условиях? Чтобы ответить на этот вопрос, я взял 8 популярных моделей — от дорогих флагманов OpenAI и Anthropic до доступных открытых альтернатив — и поручил им одну и ту же задачу в действующем open-source проекте. За подробным разбором результатов добро пожаловать под кат. Читать далее
🕒 13.03.2026 11:22
Читать полностью
Я спроектировал архитектуру команды из 9 ИИ-агентов, которая проектирует, пишет, тестирует и деплоит других ИИ-агентов. Стоимость — от одной RTX 4090 до кластера A100.Не бывает «лучшей модели» — бывает лучшая модель для конкретной роли. Оркестратору нужен reasoning (GPQA 88.4%), билдеру — кодогенерация (HumanEval 92.7%), критику — понимание tool use (tau-bench 87.4%). Поэтому вместо одного GPT-5 на все задачи — 6 open-source моделей на 9 ролей. Внутри: конкретный маппинг модель → роль с обоснованием через бенчмарки, трюк с шарингом инстансов (9 агентов = 3-4 модели), три конфигурации развёртывания от одной RTX 4090 (24 GB) до кластера A100 (211 GB), честное сравнение self-hosted vs. API, квантизация, инфраструктура инференса и интерактивный дашборд. Читать далее
🕒 12.03.2026 21:03
Читать полностью
В моем опыте работы с нейросетями было многое, в том числе ситуации, когда нужно было вписать ключи в тексты на сайты. У меня был список из 20 фраз, был красивый, заранее подготовленный текст, и я сидела и аккуратно, как хирург, впихивала эти ключи в абзацы. Где-то меняла падежи, где-то перестраивала предложения, где-то просто тупо вставляла в конец, потому что иначе никак. Работа в итоге всегда была сделана хорошо, но осадочек оставался. Сейчас я делаю проще: вставляю в промпт фразу «впиши эти ключи, сохрани смысл» и через минуту получаю готовый текст. Нейросети не жалуются на сложные падежи, не просят доплатить за срочность и не тупят к вечеру пятницы. Но есть нюанс - нейросетей стало очень много. Есть универсальные модели, которые умеют всё, но требуют правильных промптов. А есть узконаправленные инструменты - они заточены под конкретные задачи, но стоят денег и не факт, что сделают лучше. В этом обзоре я решила разобраться раз и навсегда: что реально работает для SEO-обработки текстов, а что просто пылесосит бюджет. Поехали! Приятного прочтения) Читать далее
🕒 12.03.2026 18:53
Читать полностью
Работа с агентом обычно прерывается мелкими операциями: написать сообщение коммита, скопировать кусок ответа, прикрепить скриншот. В релизе Veai 5.6 (ИИ-агент к JetBrains IDEs для написания кода, тестирования и отладки с доступом к топовым LLM и всем внутренним инструментам IDE) мы убрали часть этой рутины. Добавили генерацию коммитов из diff, быстрые действия для текста ответа, явный технический контекст запроса, ручной вызов Skills и более простой способ прикреплять изображения. Читать далее
🕒 12.03.2026 12:31
Читать полностью
Новые нейросети появляются на свет с пугающей скоростью. И речь не только о крупных гигантах вроде OpenAI – на арену выходят десятки моделей, которые можно запустить локально у себя на компьютере. На моем счету уже есть статьи, в которых я не раз сталкивал лбами разные ИИ. Но из всех узконаправленных сравнений моя самая любимая сфера – без сомнения, программирование. Игроки первого эшелона – Anthropic, OpenAI и Google – не так давно подкинули нам новые версии своих моделей. Конечно, многие ждали выхода новой DeepSeek, но, к сожалению, чуда не произошло. Поэтому в сегодняшнем материале мы сосредоточимся на доступных нам флагманах. В сегодняшней статье я сравню последние флагманские модели от ИИ-гигантов в кодинге. Не обещаю, что задания сами по себе будут сложными, но по крайней мере постараюсь, чтобы они ранжировались по возрастанию трудности их выполнения. Принимайте стратегически удобное положение, ну а я начинаю! Читать далее
🕒 10.03.2026 16:12
Читать полностью
На фоне всей этой каши между Anthropic, Пентагоном и OpenAI, думаю, самое время объяснить, в чём на самом деле ценность ИИ. Потому что именно через эту оптику всё происходящее наконец начинает приобретать смысл. Дело вот в чём. ИИ — это троянский конь. Это эксплуататорская олигархия, нарядившаяся в костюм инструмента для повышения продуктивности. Давайте провалимся в очень неприятную кроличью нору. Читать далее
🕒 10.03.2026 16:11
Читать полностью
Сначала я был уверен, что мой coding‑агент просто тупит. Он игнорировал свежие требования, изредка терял файлы, а иногда даже генерировал что-то совсем уж не в тему. Потом я открыл свои старые сессии — и стало неловко, потому что во всем виноват только один из нас — я. Я увидел, как сам ломаю контекст: смешиваю разные задачи, таскаю старое ТЗ и не вычищаю ненужные хвосты, когда уже пора. Поразмыслив, я понял, что переоцениваю «магичность» модели и недооцениваю дисциплину использования. Ведь для успешного применения агентов важно, как построены сессии, заданы инструкции, настроены субагенты, команды и устойчивые skills — в общем, контекст, который мы закладываем в модель. Эта статья предназначена для специалистов, работающих с LLM- и AI-агентами или планирующих их внедрение. Она будет полезна разработчикам, промпт-инженерам, специалистам по контекст-инжинирингу и техническим лидерам. В ней вы найдете мои советы по оптимизации AI-агентов для автоматизации задач, а после прочтения лучше поймете, как управлять контекстом. Поводом к этой статье стал гайд Sankalp Shubham про Claude Code 2.0 и мои размышления о контекст‑инжиниринге. Здесь я совмещаю мини‑перевод ключевых идей с собственной практикой, чтобы показать, как приемы из гайда переложить на работу с любыми coding‑агентами (да и на работу вообще). Читать далее
🕒 10.03.2026 14:44
Читать полностьюФеномен Grokking и Mechanistic Interpretability ;— главные тренды в исследованиях лабораторий уровня OpenAI и Anthropic. Я решил потрогать эти концепции своими руками на уровне тензоров. Цель казалась тривиальной: заставить кастомный микро-Трансформер (всего 1М параметров) выучить базовую арифметику с нуля. Однако вместо математического гения я получил ленивого мошенника. Эта статья — инженерный детектив о том, как нейросети пытаются нас обмануть (Specification Gaming), и как вскрытие Attention-матриц помогает поймать их за руку. Вскрыть Трансформер
🕒 10.03.2026 13:46
Читать полностью