mrLastman

mrLastman

Мой ТГ канал: https://t.me/youngfounder
На Пикабу
880 рейтинг 1 подписчик 0 подписок 5 постов 1 в горячем
777

Вы уже видели этот новый прикол с GPT?6

Просим его сделать, что то типа: Сделай картинку азбуки для малышей.
И получаем веселый треш, кидайте в комменты, че у вас вышло)

Вы уже видели этот новый прикол с GPT?
Показать полностью 1

Как я выиграл спор с помощью нейросети и проверил, могут ли нейросети писать убедительно

Краткое содержание: Поспорил с одним товарищем в комментариях, что нейросеть не может написать качественный текст о специфической профессии так, чтобы люди поверили. Взял и написал статью про полярника с помощью ChatGPT и Claude. Результат: 80 000 прочтений на Пикабу, почти 1000 лайков и куча людей, которые поверили в историю. Расскажу пошагово, как создавал этот контент и что из этого вышло.

Как начался спор

Недавно поспорил с одним мужиком в комментариях о возможностях нейросетей. Он утверждал, что невозможно написать нейросетью текст о какой-нибудь специфической профессии так, чтобы это выглядело натурально и люди не заподозрили подвох.

Ну я, естественно, не смог пройти мимо такого вызова. Решил проверить на практике.

К тому же повезло — как раз в ту ночь ChatGPT выкатил обновление с генерацией изображений. Качество картинок стало просто космическим, лучше многих других нейросетей.

Выбираем сложную задачу

Для эксперимента выбрал профессию полярника. Почему именно её?

  • Мало информации в открытом доступе

  • Специфические факты, которые сложно выдумать

  • Мало кто имеет личный опыт работы на полярных станциях

Если читатели поверят этому тексту про такую экзотическую профессию, то спор можно считать выигранным.

Пошаговый процесс создания контента

Шаг 1: Собираем факты в ChatGPT

Сначала попросил ChatGPT написать основные факты о работе на полярной станции. Нужна была база — реальная информация, чтобы текст не выглядел полной выдумкой.

Шаг 2: Создаем историю в Claude

Скопировал факты и перенес их в Claude. На мой взгляд, Claude пишет лучшие тексты — более живые и естественные.

Промпт был примерно такой: "Представь, что ты пишешь статью о том, как работал айтишником, потом уволился и уехал на полярную станцию, нашел там вакансию и теперь работаешь."

Дополнительно попросил добавить историю о дружбе с белым медведем (на этом месте читатели заподозрили подвох, но обо всем по порядку).

Шаг 3: Редактируем текст

Claude сгенерировал статью, но в первой итерации было слишком много сравнений с IT-работой. Попросил это подсократить — и всё, больше правок не потребовалось.

Шаг 4: Генерируем картинки в ChatGPT

Попросил создать 5 изображений:

  • Вид полярной станции

  • Белый медведь роется в мусорке

  • Северное сияние

  • Фотография "меня" как полярника

  • Природа заполярья

Шаг 5: Публикуем везде

Скомпилировал всё в статью и запостил на несколько площадок:

Результаты эксперимента по площадкам

VC.ru — полный провал

  • ~600 просмотров

  • 1 комментарий ("где искать вакансии?")

  • Статья не взлетела

DTF — быстро раскусили

  • ~1700 прочтений

  • Сразу появились комментарии про "нейрокопирайтинг"

  • 30 лайков, 90 комментариев

  • Статью снесли (хотя правил про запрет нейротекстов нет)

Пользователи DTF оказались прошаренными — быстро распознали, что текст написан нейросетью. Но картинки прокатили! Никто не понял, что они сгенерированы.

Пикабу — невероятный успех

Здесь произошел просто разрыв шаблона:

  • 80 000+ прочтений

  • Почти 1000 лайков

  • 165 комментариев

  • Статью репостнули в официальный телеграм-канал Пикабу

Самое интересное: большинство людей поверили в историю! Были комментарии типа "работа настоящего мужчины", "отличная статья".

Критика пошла по двум направлениям:

  1. "Котолампа" — то есть написано специально, чтобы всем понравиться

  2. Фактические ошибки — настоящие полярники набежали и стали объяснять, что медведей кормить нельзя, генератор не мог так отключиться и т.д.

Яндекс.Дзен — тихий успех

  • 43 дочитывания

  • 5 лайков, 2 комментария

  • Никто не распознал нейросеть!

  • Комментарии типа "работа настоящего мужчины, отлично!"

Самые смешные косяки нейросети

Больше всего меня рассмешил один коммент на Пикабу, где пользователь разобрал ошибки на картинках. Самый эпичный косяк — на изображении полярной станции есть лестница, которая ведет... в окно. Не в дверь, а именно в окно! 😂

Этого я даже не заметил при публикации.

Выводы из эксперимента

Что получилось:

  • Спор выиграл — люди действительно поверили в нейротекст

  • Картинки прошли проверку — почти никто не распознал, что они сгенерированы

  • Разные площадки — разная реакция — аудитория DTF более подкована технически

Что не получилось:

  • Фактические ошибки — профессионалы быстро вычислили неточности

  • Некоторые очевидные косяки — лестница в окно, например

  • Стиль письма — часть читателей все же почувствовала "искусственность"

Практические советы по работе с нейросетями

  1. Используйте связку нейросетей — ChatGPT для фактов, Claude для текстов

  2. Редактируйте результат — даже небольшие правки сильно улучшают качество

  3. Проверяйте картинки — ищите очевидные косяки типа лестниц в окна

  4. Учитывайте аудиторию — на DTF быстрее раскусят, чем в Дзене

  5. Не переборщите с деталями — история про медведя была лишней

Что это значит для контент-маркетинга?

Эксперимент показал, что нейросети уже могут создавать контент, который большинство людей воспринимает как настоящий. Это открывает новые возможности, но и ставит этические вопросы.

Можно ли использовать такой контент в коммерческих целях? Нужно ли предупреждать читателей о том, что текст написан ИИ? Пока четких ответов нет.

Одно понятно точно — качество нейротекстов растет с каждым месяцем. То, что год назад было очевидным нейробредом, сегодня может убедить тысячи читателей.

P.S.

Противник в споре честно признал поражение. Миссия выполнена! 🎯

А если вам интересно, как правильно делать связки нейросетей для получения качественных текстов, какие промпты использовать и как копировать стили — пишите в комментариях. Возможно, сделаю подробный разбор.

Показать полностью 7

Объясняю все модели OpenAI: от GPT-3.5 до О4 Mini High

Краткое содержание: Разбираюсь в этом бардаке с названиями моделей OpenAI — GPT-4, GPT-4.5, O3, O4 Mini... Что это вообще такое и зачем так много? Рассказываю, какие модели сейчас актуальны, какие уже никому не нужны, и что использовать для разных задач. Отдельно объясняю difference между reasoning и non-reasoning моделями (да, это важно!). Наконец-то всё разложу по полочкам, чтобы вы понимали, что за чем следует и куда катится этот зоопарк нейросетей.

Почему OpenAI так странно называет свои модели?

Вы тоже путаетесь в этой каше из GPT-4, GPT-4.5, GPT-4.1, О3, О4 Mini? Не вы одни! OpenAI умудрились создать самую запутанную систему наименования моделей в истории ИИ.

Обычно модели в API называются в формате "GPT-[версия]-[дата выпуска]". Например, GPT-4-1106 — это модель, выпущенная 6 ноября (11-й месяц, 6-е число).

Для удобства я разделил все модели на три категории:

  • Non-reasoning — обычные модели без "размышлений"

  • Reasoning — модели с "размышлениями"

  • Вспомогательные — для специальных задач (аудио, поиск и т.д.)

Какие модели сейчас доступны в ChatGPT?

Non-reasoning модели:

  1. GPT-4o — базовая модель, доступна по подписке Plus (10 запросов в 3 часа). Вышла в мае 2024 года, получала обновления до февраля 2025. Главная фишка — интегрированная мультимодальность (работа с изображениями). Скоро её уберут (30 апреля 2025).

  2. GPT-4o Mini — более дешёвая версия, доступна безлимитно для бесплатных пользователей ChatGPT. Активно используется в API как самая дешёвая и достаточно качественная модель.

  3. GPT-4.5 — появилась недавно (27 февраля 2025), одна из самых дорогих моделей. Создана для генерации креативных текстов, но по факту довольно провальная — к июлю её уберут из API, оставив только в интерфейсе.

Reasoning модели:

  1. О3 — самая продвинутая модель с глубокими "размышлениями", идеальна для точных наук и программирования. Доступно 50 запросов в неделю на Plus-подписке.

  2. О4 Mini — "мини" версия полноценной О4 (которую ещё даже не анонсировали). Заменила О3 Mini.

История развития моделей OpenAI

Древняя история (2022-2023)

Началось всё с GPT DaVinci 003 (ноябрь 2022) — по сути это был GPT-3. Мало кто о нём помнит, но это была одна из первых моделей, генерирующих правдоподобный текст со смысловой нагрузкой.

Потом пошли GPT-3.5 Turbo модели (март 2023) — они были мега-популярными. Примерно 70% всех сервисов, дающих доступ к ChatGPT, использовали именно их. Были ещё версии с расширенным контекстом (16K) и optimized for instructions.

Революция GPT-4 (март 2023)

GPT-4o стал настоящей революцией — именно после него начался безумный хайп вокруг OpenAI и больших языковых моделей в целом. Тогда же появились версии с разным контекстным окном (GPT-4 32K).

В ноябре 2023 вышли превью-версии GPT-4 Turbo (1106-preview и 0125-preview), которые были лучше и дешевле предшественников. А еще была отдельная модель GPT-4 Vision Preview для обработки изображений.

Эра мультимодальности (май 2024)

GPT-4o (вышел в мае 2024) стал первой нативно мультимодальной моделью — мог нормально обрабатывать и текст, и изображения. Модель регулярно обновлялась без смены названия (последняя версия 0806). Вместе с ней появилась GPT-4o Mini — бюджетная версия для массового использования.

Эпоха "размышляющих" моделей (сентябрь 2024)

В сентябре 2024 появились первые reasoning-модели: О1 Mini и О1 Preview. Ключевая фишка — они сначала "размышляют" над ответом, а потом выдают результат. О1 Mini стала первой моделью, генерирующей до 64K токенов за раз (раньше был лимит в 4K-8K).

Зимой выкатили О3 Mini — более совершенную reasoning-модель. Она показала результаты на уровне человека в абстрактном мышлении.

Хаос 2025 года

В 2025 началась полная каша:

  • Вышла GPT-4.5 — дорогой эксперимент для генерации текстов

  • Потом внезапно GPT-4.1 и GPT-4.1 Nano — модели для разработчиков

  • И наконец О3 и О4 Mini (буквально несколько недель назад)

На что обратить внимание в reasoning моделях

Важный момент: все reasoning модели имеют параметр reasoning effort. Одна и та же модель может быть в трёх версиях:

  • High — максимальное время размышления, лучшие ответы, но медленнее и дороже

  • Medium — средний вариант (обычно используется по умолчанию)

  • Low — минимальное время размышления, ответы попроще, но быстрее и дешевле

Например, О4 Mini High, О4 Mini Medium (просто О4 Mini) и О4 Mini Low — одна и та же модель с разной настройкой "размышлений".

Какие модели реально стоит использовать сейчас

Для общих задач (non-reasoning):

  • GPT-4o — лучшая для работы с языком, гуманитарных наук, перевода и т.д.

  • GPT-4.1 — для проектов, где нужно программирование, скорость и низкая цена

  • GPT-4.1 Nano — самый дешёвый и быстрый вариант для простых задач (чат-боты и т.д.)

Для точных наук и сложных расчётов (reasoning):

  • О3 — для самых сложных задач по математике, физике, химии. Максимально точные результаты, но дороже и медленнее

  • О4 Mini — быстрее и дешевле О3, почти не уступает в программировании

Мой личный опыт использования моделей

Расскажу, какие модели я сам использую и что о них думаю:

  • GPT-4o — мой ежедневный рабочий инструмент. Звоню ей по видео, когда возникает какая-то проблема с котлом на даче — она помогала мне настроить таймер и правильно засыпать соль в фильтры. Вообще злоупотребляю этим — чуть что, сразу бегу к GPT с вопросами. А еще генерирую с её помощью мемы и картинки, например, как этот к статье 😁

  • GPT-4.5 — пробовал как-то, но совсем не зашла. Тексты всё равно лучше пишет Claude, так что не удивительно, что она и у других пользователей не популярна. За такие деньги ожидаешь чего-то космического, а по факту — ничего особенного.

  • О3 — мой карманный маркетолог! От маркетингового анализа до прототипа сайта — делаем вместе всё: и стратегии накидать, и гипотезы проверить. До этого выполнял те же задачи в О1, но О3 справляется заметно лучше. Это тема отдельной статьи, которую я обязательно напишу!

  • Остальные версии, которые сейчас есть, не пробовал и не использую. Зачем плодить сущности, когда и так всё работает?

Что использовать для разных задач?

  • Переводы, гуманитарные задачи, общение → GPT-4o

  • Дешёвые и быстрые решения → GPT-4.1 Nano

  • Программирование → О4 Mini или GPT-4.1

  • Сложные математические задачи → О3

  • Генерация текстов → GPT-4o (GPT-4.5 слишком дорогая)

Если вы используете ChatGPT, а не API:

  • Plus-подписка → О3 для сложных задач, GPT-4o для остального

  • Бесплатная версия → О4 Mini High (когда доступно) и GPT-4o Mini

Вывод: куда всё это катится?

OpenAI явно не собираются упрощать свою линейку моделей. Сначала обещали GPT-5, потом стали выкатывать GPT-4.1, О3, О4 Mini... Кажется, они сами запутались в том, что делают.

Но если отбросить все устаревшие модели, картина проясняется:

  1. Non-reasoning модели для общих задач (GPT-4o и его варианты)

  2. Reasoning модели для точных задач (О3, О4 Mini)

  3. Вспомогательные модели для специфических задач (Search, Audio и т.д.)

Надеюсь, эта статья помогла разобраться в том, что происходит с моделями OpenAI. Если остались вопросы — пишите в комментариях!

Показать полностью 2
4

Сколько энергии жрёт нейросеть: почему вашему ChatGPT нужно столько же электричества как для заварки дошика

Краткое содержание: Наткнулся на видео, в котором мужик рассказывает, как опасны нейросети тем, что тратят много ресурсов планеты, и надо от них срочно отказаться. Я решил разобраться, так ли это на самом деле. Оказалось, один запрос в ChatGPT съедает в 30 раз меньше энергии, чем заваривание дошика, а генерация одной картинки в Midjourney ≈ 1/5 чайника кипятка. Разберёмся, сколько планета теряет, пока вы заставляете ИИ писать вам курсовые и рисовать котиков в космосе. Спойлер: оказывается, это меньшая из наших проблем.

Сколько энергии жрёт нейросеть: почему вашему ChatGPT нужно столько же электричества как для заварки дошика

Нейросети и киловатты: как я пытался разобраться, сколько энергии уходит на генерацию моих текстов

Листаю я значит рилс, никого не трогаю, и тут появляется какой-то мужик в белой рубашке с умным видом и начинает вещать: "ИИ - это угроза для планеты! Знаете, сколько энергии потребляет один дата-центр? Как целый маленький город! А вы своими запросами к ChatGPT только усугубляете проблему глобального потепления!"

Честно говоря, я задумался. Действительно, сколько энергии я сжигаю, когда прошу нейросеть написать мне текст или сгенерировать картинку? Может, я лично плавлю ледники где-нибудь в Антарктиде каждый раз, когда генерирую заголовок для статьи?

Решил копнуть тему глубже, и оказалось, что вокруг энергопотребления ИИ столько же шума, сколько вокруг биткоина, но конкретных цифр при этом — кот наплакал. Причём разные источники дают настолько разные данные, что, кажется, будто они о разных планетах пишут.

Но я всё-таки нашёл консенсус среди экспертов. Давайте разбираться.

Три кита, на которых стоит энергожорство нейросетей

Искусственный интеллект потребляет в основном три ресурса (как в любой криптовалютной пирамиде — шутка):

  1. Энергия ⚡ — для работы дата-центров, серверов и тех самых GPU, без которых современные нейросети работали бы со скоростью черепахи после обеда из трёх блюд.

  2. Железо 🖥 — графические процессоры (GPU) и тензорные процессоры (TPU). Тренировка GPT-3 потребовала тысяч GPU-часов. Одна NVIDIA A100 стоит как хорошая машина, а для обучения больших моделей нужны тысячи таких карт.

  3. Вода 💧 — серверы греются как сковородки в Аду, и их нужно охлаждать. А на это уходит тонна воды. Экологический след некоторых моделей сравнивают с выбросами целых отраслей промышленности.

И если вы думаете, что ваши запросы к нейросети — это безобидное баловство, то я сейчас покажу, сколько на самом деле электричества уходит на каждое "напиши мне эссе про Достоевского на 5 страниц".

Какие модели ИИ самые прожорливые?

Есть три типа моделей, которые особенно любят полакомиться киловаттами:

  1. Большие языковые модели (LLM) — GPT-4, Gemini, Claude и все их многочисленные родственники. Они как старший брат, который съедает половину холодильника за один присест.

  2. Модели для генерации изображений — Midjourney, DALL-E, Stable Diffusion. Эти ребята — настоящие энергетические вампиры. Они потребляют в 10-20 раз больше энергии, чем текстовые модели.

  3. Глубокие нейросети с миллиардами параметров — чем больше параметров, тем больше энергии нужно. А современные модели имеют десятки и сотни миллиардов параметров.

А вот что удивительно: самые экономичные модели — это старые добрые статистические алгоритмы, которые мы учили ещё в универе. Линейная регрессия, деревья решений, случайные леса — они работают на обычных CPU и потребляют минимум энергии.

Давайте посчитаем на пальцах: сколько энергии уходит на один запрос?

Я люблю конкретику, поэтому давайте перейдём к цифрам. Сколько же электричества на самом деле потребляет нейросеть, когда вы просите её что-то сгенерировать?

Генерация текста (например, в ChatGPT):

  • Энергопотребление: примерно 0,001-0,01 кВт·ч (1-10 Вт·ч) на один запрос.

  • Углеродный след: примерно 0,2-2 грамма CO₂ на запрос.

Для сравнения: одна поисковая операция в Google ≈ 0,2 г CO₂.

Генерация изображения (например, в Midjourney):

  • Энергопотребление: около 0,01-0,1 кВт·ч (10-100 Вт·ч) на одно изображение.

  • Углеродный след: примерно 2-20 граммов CO₂ на изображение.

Получается, что генерация картинок в 10-20 раз прожорливее, чем генерация текста. Логично: картинка требует больше вычислений, чем набор слов.

Бытовые сравнения, чтобы было понятно даже моей бабушке

Сухие цифры ни о чём не говорят, давайте сравним энергопотребление нейросетей с привычными бытовыми процессами:

⚡ Энергопотребление в Ватт-часах (Вт·ч):

  • 📝 Генерация одного текста (GPT): ≈ 1-10 Вт·ч

  • 🎨 Генерация одного изображения: ≈ 10-100 Вт·ч

  • ☕ Кипячение чайника (1 литр воды): ≈ 100-150 Вт·ч

  • 📱 Зарядка смартфона: ≈ 10-15 Вт·ч

  • 📺 Просмотр телевизора (1 час): ≈ 50-150 Вт·ч

  • 💻 Работа ноутбука (1 час): ≈ 20-50 Вт·ч

  • 🧺 Стирка в стиральной машине (одна загрузка): ≈ 500-1000 Вт·ч

🌱 Углеродный след в граммах CO₂:

  • 📝 Генерация текста (GPT): ≈ 0,2-2 г CO₂

  • 🎨 Генерация изображения: ≈ 2-20 г CO₂

  • ☕ Кипячение одного чайника: ≈ 20-50 г CO₂

  • 📱 Зарядка одного смартфона: ≈ 3-5 г CO₂

  • 📺 Просмотр одного часа ТВ: ≈ 25-80 г CO₂

  • 🚗 Одна поездка на автомобиле (1 км): ≈ 100-250 г CO₂

Получается, что:

  • Один запрос в ChatGPT ≈ примерно 1-2 минутам зарядки смартфона.

  • Генерация одного изображения ≈ полной зарядке смартфона или 5-20 минутам просмотра телевизора.

Рекорд по наглядности: сравнение с дошиком

Давайте представим, что у нас есть стандартная порция дошика, которую нужно залить кипятком. На кипячение 0,5 литра воды чайник потратит примерно 50-80 Вт·ч энергии.

🍜 Сколько действий равно энергии на один дошик:

  • 📝 Генерация текста в GPT: ≈ 5-50 текстов на один дошик

  • 🎨 Генерация изображения: ≈ 1-8 изображений на один дошик

  • 🍜 Заварить один дошик: ровно один дошик 😄

То есть, если вы попросите ChatGPT написать вам 30 текстов, это примерно равно энергии, необходимой для приготовления одной порции дошика. А 5 картинок в Midjourney — это тоже примерно один дошик.

Что делать, если хочется нейросетей, но не хочется разорять планету?

Если вы всё-таки беспокоитесь об экологии (а кто после таких рилсов не будет?), вот несколько способов снизить энергопотребление при использовании ИИ:

  1. Используйте компактные модели вместо огромных. Например, DistilBERT вместо BERT или MobileNet вместо ResNet.

  2. Не генерируйте каждый раз заново, а сохраняйте результаты. Особенно это касается изображений.

  3. Оптимизируйте запросы. Чем точнее запрос, тем меньше итераций нужно для получения результата.

  4. Лучше текст, чем изображения. Если можно обойтись текстом вместо картинки — используйте текст.

  5. Используйте локальные малые модели, где это возможно, вместо обращения к облачным сервисам.

Мои выводы, которые никто не просил

  1. ИИ не такой уж энергожор, как его малюют в рилсах. Да, на тренировку больших моделей уходит куча энергии, но один запрос обычного пользователя — это капля в море.

  2. Генерация текста намного экономичнее, чем генерация изображений. Почти в 10-20 раз!

  3. Бытовая техника потребляет намного больше, чем ваши запросы к ИИ. Один цикл стирки = 500-1000 запросов к ChatGPT.

  4. Если используете нейросеть — не пейте чай одновременно. Серьёзно, если каждый раз, запрашивая что-то у ИИ, вы будете отказываться от чашки чая, то выйдете в минус по энергозатратам! 20 запросов к ChatGPT потребляют столько же энергии, как одна чашка чая.

  5. А если вы заваривали дошик во время генерации изображения — считайте, что вы израсходовали двойную норму энергии. Вам теперь придётся не пользоваться телефоном целый день, чтобы компенсировать этот углеродный след!

В общем, я пришёл к выводу, что чувак из рилса немного преувеличивал. Или, может, он просто не в курсе, что его 5-минутное видео в HD качестве потребляет больше энергии, чем сотня запросов к ChatGPT. Генерация текста на удивление экологична, если сравнивать с другими повседневными активностями.

А если хотите по-настоящему сэкономить энергию — выключите YouTube и полчаса почитайте бумажную книгу. Только не перед сном, а то придётся включать лампу, и весь смысл теряется.

P.S. Подписывайтесь на мой телеграм-канал, там я регулярно публикую такие марафоны любопытства по разным темам маркетинга, технологий и бизнеса!

Показать полностью 1
Отличная работа, все прочитано!