
mrLastman
Как я выиграл спор с помощью нейросети и проверил, могут ли нейросети писать убедительно
Краткое содержание: Поспорил с одним товарищем в комментариях, что нейросеть не может написать качественный текст о специфической профессии так, чтобы люди поверили. Взял и написал статью про полярника с помощью ChatGPT и Claude. Результат: 80 000 прочтений на Пикабу, почти 1000 лайков и куча людей, которые поверили в историю. Расскажу пошагово, как создавал этот контент и что из этого вышло.
Как начался спор
Недавно поспорил с одним мужиком в комментариях о возможностях нейросетей. Он утверждал, что невозможно написать нейросетью текст о какой-нибудь специфической профессии так, чтобы это выглядело натурально и люди не заподозрили подвох.
Ну я, естественно, не смог пройти мимо такого вызова. Решил проверить на практике.
К тому же повезло — как раз в ту ночь ChatGPT выкатил обновление с генерацией изображений. Качество картинок стало просто космическим, лучше многих других нейросетей.
Выбираем сложную задачу
Для эксперимента выбрал профессию полярника. Почему именно её?
Мало информации в открытом доступе
Специфические факты, которые сложно выдумать
Мало кто имеет личный опыт работы на полярных станциях
Если читатели поверят этому тексту про такую экзотическую профессию, то спор можно считать выигранным.
Пошаговый процесс создания контента
Шаг 1: Собираем факты в ChatGPT
Сначала попросил ChatGPT написать основные факты о работе на полярной станции. Нужна была база — реальная информация, чтобы текст не выглядел полной выдумкой.
Шаг 2: Создаем историю в Claude
Скопировал факты и перенес их в Claude. На мой взгляд, Claude пишет лучшие тексты — более живые и естественные.
Промпт был примерно такой: "Представь, что ты пишешь статью о том, как работал айтишником, потом уволился и уехал на полярную станцию, нашел там вакансию и теперь работаешь."
Дополнительно попросил добавить историю о дружбе с белым медведем (на этом месте читатели заподозрили подвох, но обо всем по порядку).
Шаг 3: Редактируем текст
Claude сгенерировал статью, но в первой итерации было слишком много сравнений с IT-работой. Попросил это подсократить — и всё, больше правок не потребовалось.
Шаг 4: Генерируем картинки в ChatGPT
Попросил создать 5 изображений:
Вид полярной станции
Белый медведь роется в мусорке
Северное сияние
Фотография "меня" как полярника
Природа заполярья
Шаг 5: Публикуем везде
Скомпилировал всё в статью и запостил на несколько площадок:
Результаты эксперимента по площадкам
VC.ru — полный провал
~600 просмотров
1 комментарий ("где искать вакансии?")
Статья не взлетела
DTF — быстро раскусили
~1700 прочтений
Сразу появились комментарии про "нейрокопирайтинг"
30 лайков, 90 комментариев
Статью снесли (хотя правил про запрет нейротекстов нет)
Пользователи DTF оказались прошаренными — быстро распознали, что текст написан нейросетью. Но картинки прокатили! Никто не понял, что они сгенерированы.
Пикабу — невероятный успех
Здесь произошел просто разрыв шаблона:
80 000+ прочтений
Почти 1000 лайков
165 комментариев
Статью репостнули в официальный телеграм-канал Пикабу
Самое интересное: большинство людей поверили в историю! Были комментарии типа "работа настоящего мужчины", "отличная статья".
Критика пошла по двум направлениям:
"Котолампа" — то есть написано специально, чтобы всем понравиться
Фактические ошибки — настоящие полярники набежали и стали объяснять, что медведей кормить нельзя, генератор не мог так отключиться и т.д.
Яндекс.Дзен — тихий успех
43 дочитывания
5 лайков, 2 комментария
Никто не распознал нейросеть!
Комментарии типа "работа настоящего мужчины, отлично!"
Самые смешные косяки нейросети
Больше всего меня рассмешил один коммент на Пикабу, где пользователь разобрал ошибки на картинках. Самый эпичный косяк — на изображении полярной станции есть лестница, которая ведет... в окно. Не в дверь, а именно в окно! 😂
Этого я даже не заметил при публикации.
Выводы из эксперимента
Что получилось:
✅ Спор выиграл — люди действительно поверили в нейротекст
✅ Картинки прошли проверку — почти никто не распознал, что они сгенерированы
✅ Разные площадки — разная реакция — аудитория DTF более подкована технически
Что не получилось:
❌ Фактические ошибки — профессионалы быстро вычислили неточности
❌ Некоторые очевидные косяки — лестница в окно, например
❌ Стиль письма — часть читателей все же почувствовала "искусственность"
Практические советы по работе с нейросетями
Используйте связку нейросетей — ChatGPT для фактов, Claude для текстов
Редактируйте результат — даже небольшие правки сильно улучшают качество
Проверяйте картинки — ищите очевидные косяки типа лестниц в окна
Учитывайте аудиторию — на DTF быстрее раскусят, чем в Дзене
Не переборщите с деталями — история про медведя была лишней
Что это значит для контент-маркетинга?
Эксперимент показал, что нейросети уже могут создавать контент, который большинство людей воспринимает как настоящий. Это открывает новые возможности, но и ставит этические вопросы.
Можно ли использовать такой контент в коммерческих целях? Нужно ли предупреждать читателей о том, что текст написан ИИ? Пока четких ответов нет.
Одно понятно точно — качество нейротекстов растет с каждым месяцем. То, что год назад было очевидным нейробредом, сегодня может убедить тысячи читателей.
P.S.
Противник в споре честно признал поражение. Миссия выполнена! 🎯
А если вам интересно, как правильно делать связки нейросетей для получения качественных текстов, какие промпты использовать и как копировать стили — пишите в комментариях. Возможно, сделаю подробный разбор.
Объясняю все модели OpenAI: от GPT-3.5 до О4 Mini High
Краткое содержание: Разбираюсь в этом бардаке с названиями моделей OpenAI — GPT-4, GPT-4.5, O3, O4 Mini... Что это вообще такое и зачем так много? Рассказываю, какие модели сейчас актуальны, какие уже никому не нужны, и что использовать для разных задач. Отдельно объясняю difference между reasoning и non-reasoning моделями (да, это важно!). Наконец-то всё разложу по полочкам, чтобы вы понимали, что за чем следует и куда катится этот зоопарк нейросетей.
Почему OpenAI так странно называет свои модели?
Вы тоже путаетесь в этой каше из GPT-4, GPT-4.5, GPT-4.1, О3, О4 Mini? Не вы одни! OpenAI умудрились создать самую запутанную систему наименования моделей в истории ИИ.
Обычно модели в API называются в формате "GPT-[версия]-[дата выпуска]". Например, GPT-4-1106 — это модель, выпущенная 6 ноября (11-й месяц, 6-е число).
Для удобства я разделил все модели на три категории:
Non-reasoning — обычные модели без "размышлений"
Reasoning — модели с "размышлениями"
Вспомогательные — для специальных задач (аудио, поиск и т.д.)
Какие модели сейчас доступны в ChatGPT?
Non-reasoning модели:
GPT-4o — базовая модель, доступна по подписке Plus (10 запросов в 3 часа). Вышла в мае 2024 года, получала обновления до февраля 2025. Главная фишка — интегрированная мультимодальность (работа с изображениями). Скоро её уберут (30 апреля 2025).
GPT-4o Mini — более дешёвая версия, доступна безлимитно для бесплатных пользователей ChatGPT. Активно используется в API как самая дешёвая и достаточно качественная модель.
GPT-4.5 — появилась недавно (27 февраля 2025), одна из самых дорогих моделей. Создана для генерации креативных текстов, но по факту довольно провальная — к июлю её уберут из API, оставив только в интерфейсе.
Reasoning модели:
О3 — самая продвинутая модель с глубокими "размышлениями", идеальна для точных наук и программирования. Доступно 50 запросов в неделю на Plus-подписке.
О4 Mini — "мини" версия полноценной О4 (которую ещё даже не анонсировали). Заменила О3 Mini.
История развития моделей OpenAI
Древняя история (2022-2023)
Началось всё с GPT DaVinci 003 (ноябрь 2022) — по сути это был GPT-3. Мало кто о нём помнит, но это была одна из первых моделей, генерирующих правдоподобный текст со смысловой нагрузкой.
Потом пошли GPT-3.5 Turbo модели (март 2023) — они были мега-популярными. Примерно 70% всех сервисов, дающих доступ к ChatGPT, использовали именно их. Были ещё версии с расширенным контекстом (16K) и optimized for instructions.
Революция GPT-4 (март 2023)
GPT-4o стал настоящей революцией — именно после него начался безумный хайп вокруг OpenAI и больших языковых моделей в целом. Тогда же появились версии с разным контекстным окном (GPT-4 32K).
В ноябре 2023 вышли превью-версии GPT-4 Turbo (1106-preview и 0125-preview), которые были лучше и дешевле предшественников. А еще была отдельная модель GPT-4 Vision Preview для обработки изображений.
Эра мультимодальности (май 2024)
GPT-4o (вышел в мае 2024) стал первой нативно мультимодальной моделью — мог нормально обрабатывать и текст, и изображения. Модель регулярно обновлялась без смены названия (последняя версия 0806). Вместе с ней появилась GPT-4o Mini — бюджетная версия для массового использования.
Эпоха "размышляющих" моделей (сентябрь 2024)
В сентябре 2024 появились первые reasoning-модели: О1 Mini и О1 Preview. Ключевая фишка — они сначала "размышляют" над ответом, а потом выдают результат. О1 Mini стала первой моделью, генерирующей до 64K токенов за раз (раньше был лимит в 4K-8K).
Зимой выкатили О3 Mini — более совершенную reasoning-модель. Она показала результаты на уровне человека в абстрактном мышлении.
Хаос 2025 года
В 2025 началась полная каша:
Вышла GPT-4.5 — дорогой эксперимент для генерации текстов
Потом внезапно GPT-4.1 и GPT-4.1 Nano — модели для разработчиков
И наконец О3 и О4 Mini (буквально несколько недель назад)
На что обратить внимание в reasoning моделях
Важный момент: все reasoning модели имеют параметр reasoning effort. Одна и та же модель может быть в трёх версиях:
High — максимальное время размышления, лучшие ответы, но медленнее и дороже
Medium — средний вариант (обычно используется по умолчанию)
Low — минимальное время размышления, ответы попроще, но быстрее и дешевле
Например, О4 Mini High, О4 Mini Medium (просто О4 Mini) и О4 Mini Low — одна и та же модель с разной настройкой "размышлений".
Какие модели реально стоит использовать сейчас
Для общих задач (non-reasoning):
GPT-4o — лучшая для работы с языком, гуманитарных наук, перевода и т.д.
GPT-4.1 — для проектов, где нужно программирование, скорость и низкая цена
GPT-4.1 Nano — самый дешёвый и быстрый вариант для простых задач (чат-боты и т.д.)
Для точных наук и сложных расчётов (reasoning):
О3 — для самых сложных задач по математике, физике, химии. Максимально точные результаты, но дороже и медленнее
О4 Mini — быстрее и дешевле О3, почти не уступает в программировании
Мой личный опыт использования моделей
Расскажу, какие модели я сам использую и что о них думаю:
GPT-4o — мой ежедневный рабочий инструмент. Звоню ей по видео, когда возникает какая-то проблема с котлом на даче — она помогала мне настроить таймер и правильно засыпать соль в фильтры. Вообще злоупотребляю этим — чуть что, сразу бегу к GPT с вопросами. А еще генерирую с её помощью мемы и картинки, например, как этот к статье 😁
GPT-4.5 — пробовал как-то, но совсем не зашла. Тексты всё равно лучше пишет Claude, так что не удивительно, что она и у других пользователей не популярна. За такие деньги ожидаешь чего-то космического, а по факту — ничего особенного.
О3 — мой карманный маркетолог! От маркетингового анализа до прототипа сайта — делаем вместе всё: и стратегии накидать, и гипотезы проверить. До этого выполнял те же задачи в О1, но О3 справляется заметно лучше. Это тема отдельной статьи, которую я обязательно напишу!
Остальные версии, которые сейчас есть, не пробовал и не использую. Зачем плодить сущности, когда и так всё работает?
Что использовать для разных задач?
Переводы, гуманитарные задачи, общение → GPT-4o
Дешёвые и быстрые решения → GPT-4.1 Nano
Программирование → О4 Mini или GPT-4.1
Сложные математические задачи → О3
Генерация текстов → GPT-4o (GPT-4.5 слишком дорогая)
Если вы используете ChatGPT, а не API:
Plus-подписка → О3 для сложных задач, GPT-4o для остального
Бесплатная версия → О4 Mini High (когда доступно) и GPT-4o Mini
Вывод: куда всё это катится?
OpenAI явно не собираются упрощать свою линейку моделей. Сначала обещали GPT-5, потом стали выкатывать GPT-4.1, О3, О4 Mini... Кажется, они сами запутались в том, что делают.
Но если отбросить все устаревшие модели, картина проясняется:
Non-reasoning модели для общих задач (GPT-4o и его варианты)
Reasoning модели для точных задач (О3, О4 Mini)
Вспомогательные модели для специфических задач (Search, Audio и т.д.)
Надеюсь, эта статья помогла разобраться в том, что происходит с моделями OpenAI. Если остались вопросы — пишите в комментариях!
Сколько энергии жрёт нейросеть: почему вашему ChatGPT нужно столько же электричества как для заварки дошика
Краткое содержание: Наткнулся на видео, в котором мужик рассказывает, как опасны нейросети тем, что тратят много ресурсов планеты, и надо от них срочно отказаться. Я решил разобраться, так ли это на самом деле. Оказалось, один запрос в ChatGPT съедает в 30 раз меньше энергии, чем заваривание дошика, а генерация одной картинки в Midjourney ≈ 1/5 чайника кипятка. Разберёмся, сколько планета теряет, пока вы заставляете ИИ писать вам курсовые и рисовать котиков в космосе. Спойлер: оказывается, это меньшая из наших проблем.
Нейросети и киловатты: как я пытался разобраться, сколько энергии уходит на генерацию моих текстов
Листаю я значит рилс, никого не трогаю, и тут появляется какой-то мужик в белой рубашке с умным видом и начинает вещать: "ИИ - это угроза для планеты! Знаете, сколько энергии потребляет один дата-центр? Как целый маленький город! А вы своими запросами к ChatGPT только усугубляете проблему глобального потепления!"
Честно говоря, я задумался. Действительно, сколько энергии я сжигаю, когда прошу нейросеть написать мне текст или сгенерировать картинку? Может, я лично плавлю ледники где-нибудь в Антарктиде каждый раз, когда генерирую заголовок для статьи?
Решил копнуть тему глубже, и оказалось, что вокруг энергопотребления ИИ столько же шума, сколько вокруг биткоина, но конкретных цифр при этом — кот наплакал. Причём разные источники дают настолько разные данные, что, кажется, будто они о разных планетах пишут.
Но я всё-таки нашёл консенсус среди экспертов. Давайте разбираться.
Три кита, на которых стоит энергожорство нейросетей
Искусственный интеллект потребляет в основном три ресурса (как в любой криптовалютной пирамиде — шутка):
Энергия ⚡ — для работы дата-центров, серверов и тех самых GPU, без которых современные нейросети работали бы со скоростью черепахи после обеда из трёх блюд.
Железо 🖥 — графические процессоры (GPU) и тензорные процессоры (TPU). Тренировка GPT-3 потребовала тысяч GPU-часов. Одна NVIDIA A100 стоит как хорошая машина, а для обучения больших моделей нужны тысячи таких карт.
Вода 💧 — серверы греются как сковородки в Аду, и их нужно охлаждать. А на это уходит тонна воды. Экологический след некоторых моделей сравнивают с выбросами целых отраслей промышленности.
И если вы думаете, что ваши запросы к нейросети — это безобидное баловство, то я сейчас покажу, сколько на самом деле электричества уходит на каждое "напиши мне эссе про Достоевского на 5 страниц".
Какие модели ИИ самые прожорливые?
Есть три типа моделей, которые особенно любят полакомиться киловаттами:
Большие языковые модели (LLM) — GPT-4, Gemini, Claude и все их многочисленные родственники. Они как старший брат, который съедает половину холодильника за один присест.
Модели для генерации изображений — Midjourney, DALL-E, Stable Diffusion. Эти ребята — настоящие энергетические вампиры. Они потребляют в 10-20 раз больше энергии, чем текстовые модели.
Глубокие нейросети с миллиардами параметров — чем больше параметров, тем больше энергии нужно. А современные модели имеют десятки и сотни миллиардов параметров.
А вот что удивительно: самые экономичные модели — это старые добрые статистические алгоритмы, которые мы учили ещё в универе. Линейная регрессия, деревья решений, случайные леса — они работают на обычных CPU и потребляют минимум энергии.
Давайте посчитаем на пальцах: сколько энергии уходит на один запрос?
Я люблю конкретику, поэтому давайте перейдём к цифрам. Сколько же электричества на самом деле потребляет нейросеть, когда вы просите её что-то сгенерировать?
Генерация текста (например, в ChatGPT):
Энергопотребление: примерно 0,001-0,01 кВт·ч (1-10 Вт·ч) на один запрос.
Углеродный след: примерно 0,2-2 грамма CO₂ на запрос.
Для сравнения: одна поисковая операция в Google ≈ 0,2 г CO₂.
Генерация изображения (например, в Midjourney):
Энергопотребление: около 0,01-0,1 кВт·ч (10-100 Вт·ч) на одно изображение.
Углеродный след: примерно 2-20 граммов CO₂ на изображение.
Получается, что генерация картинок в 10-20 раз прожорливее, чем генерация текста. Логично: картинка требует больше вычислений, чем набор слов.
Бытовые сравнения, чтобы было понятно даже моей бабушке
Сухие цифры ни о чём не говорят, давайте сравним энергопотребление нейросетей с привычными бытовыми процессами:
⚡ Энергопотребление в Ватт-часах (Вт·ч):
📝 Генерация одного текста (GPT): ≈ 1-10 Вт·ч
🎨 Генерация одного изображения: ≈ 10-100 Вт·ч
☕ Кипячение чайника (1 литр воды): ≈ 100-150 Вт·ч
📱 Зарядка смартфона: ≈ 10-15 Вт·ч
📺 Просмотр телевизора (1 час): ≈ 50-150 Вт·ч
💻 Работа ноутбука (1 час): ≈ 20-50 Вт·ч
🧺 Стирка в стиральной машине (одна загрузка): ≈ 500-1000 Вт·ч
🌱 Углеродный след в граммах CO₂:
📝 Генерация текста (GPT): ≈ 0,2-2 г CO₂
🎨 Генерация изображения: ≈ 2-20 г CO₂
☕ Кипячение одного чайника: ≈ 20-50 г CO₂
📱 Зарядка одного смартфона: ≈ 3-5 г CO₂
📺 Просмотр одного часа ТВ: ≈ 25-80 г CO₂
🚗 Одна поездка на автомобиле (1 км): ≈ 100-250 г CO₂
Получается, что:
Один запрос в ChatGPT ≈ примерно 1-2 минутам зарядки смартфона.
Генерация одного изображения ≈ полной зарядке смартфона или 5-20 минутам просмотра телевизора.
Рекорд по наглядности: сравнение с дошиком
Давайте представим, что у нас есть стандартная порция дошика, которую нужно залить кипятком. На кипячение 0,5 литра воды чайник потратит примерно 50-80 Вт·ч энергии.
🍜 Сколько действий равно энергии на один дошик:
📝 Генерация текста в GPT: ≈ 5-50 текстов на один дошик
🎨 Генерация изображения: ≈ 1-8 изображений на один дошик
🍜 Заварить один дошик: ровно один дошик 😄
То есть, если вы попросите ChatGPT написать вам 30 текстов, это примерно равно энергии, необходимой для приготовления одной порции дошика. А 5 картинок в Midjourney — это тоже примерно один дошик.
Что делать, если хочется нейросетей, но не хочется разорять планету?
Если вы всё-таки беспокоитесь об экологии (а кто после таких рилсов не будет?), вот несколько способов снизить энергопотребление при использовании ИИ:
Используйте компактные модели вместо огромных. Например, DistilBERT вместо BERT или MobileNet вместо ResNet.
Не генерируйте каждый раз заново, а сохраняйте результаты. Особенно это касается изображений.
Оптимизируйте запросы. Чем точнее запрос, тем меньше итераций нужно для получения результата.
Лучше текст, чем изображения. Если можно обойтись текстом вместо картинки — используйте текст.
Используйте локальные малые модели, где это возможно, вместо обращения к облачным сервисам.
Мои выводы, которые никто не просил
ИИ не такой уж энергожор, как его малюют в рилсах. Да, на тренировку больших моделей уходит куча энергии, но один запрос обычного пользователя — это капля в море.
Генерация текста намного экономичнее, чем генерация изображений. Почти в 10-20 раз!
Бытовая техника потребляет намного больше, чем ваши запросы к ИИ. Один цикл стирки = 500-1000 запросов к ChatGPT.
Если используете нейросеть — не пейте чай одновременно. Серьёзно, если каждый раз, запрашивая что-то у ИИ, вы будете отказываться от чашки чая, то выйдете в минус по энергозатратам! 20 запросов к ChatGPT потребляют столько же энергии, как одна чашка чая.
А если вы заваривали дошик во время генерации изображения — считайте, что вы израсходовали двойную норму энергии. Вам теперь придётся не пользоваться телефоном целый день, чтобы компенсировать этот углеродный след!
В общем, я пришёл к выводу, что чувак из рилса немного преувеличивал. Или, может, он просто не в курсе, что его 5-минутное видео в HD качестве потребляет больше энергии, чем сотня запросов к ChatGPT. Генерация текста на удивление экологична, если сравнивать с другими повседневными активностями.
А если хотите по-настоящему сэкономить энергию — выключите YouTube и полчаса почитайте бумажную книгу. Только не перед сном, а то придётся включать лампу, и весь смысл теряется.
P.S. Подписывайтесь на мой телеграм-канал, там я регулярно публикую такие марафоны любопытства по разным темам маркетинга, технологий и бизнеса!