user7562225

На Пикабу
поставил 0 плюсов и 0 минусов
186 рейтинг 6 подписчиков 3 подписки 12 постов 1 в горячем

Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом

В течении последнего месяца в сфере текстовых нейронок всё кипит - после слитой в сеть модели Llama, aka "ChatGPT у себя на пекарне" люди ощутили, что никакой зацензуренный OpenAI по сути им и не нужен, а хорошие по мощности нейронки можно запускать локально, имея минимум 16ГБ обычной ОЗУ и хороший процессор.

Пока технические паблики только начинают отдуплять что происходит, и выкладывают какие-то протухшие гайды месячной давности, я вам закину пару вещей прямо с фронта.

Где запускать?

Способ первый - на процессоре (koboldcpp)

Я бы мог вставить сюда ссылку на репозиторий llama.cpp, который запускали чуть ли не на кофеварке, и сказать - пользуйтесь!

Но как бы там ни было, это - для гиков. А у нас всё в пару кликов и без командной строки.
И работать должно нормально, а не «на 4ГБ».

Поэтому, вот обещанная возможность запустить хорошую модель (13B параметров) на 16ГБ обычной ОЗУ без лишних мозгоделок - koboldcpp.

koboldcpp - это форк репозитория llama.cpp, с несколькими дополнениями, и в частности интегрированным интерфейсом Kobold AI Lite, позволяющим "общаться" с нейросетью в нескольких режимах, создавать персонажей, сценарии, сохранять чаты и многое другое.

Скачиваем любую стабильную версию скомпилированного exe, запускаем, выбираем модель (где их взять ниже), переходим в браузер и пользуемся. Всё!

Если у вас 32ГБ ОЗУ, то можно запустить и 30B модель - качество будет сильно лучше, но скорость ниже.

Данный способ принимает модели в формате ggml, и не требует видеокарты

P.S. Если у кого-то есть сомнения о запуске exe, то вы всегда можете проверить исходники и собрать всё самостоятельно - программа открыта.

Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом ChatGPT, IT, Технологии, Длиннопост

Kobold AI Lite, Alpaca 13B. Ни одна собака не пострадала.


Теперь koboldcpp поддерживает также и разделение моделей на GPU/CPU по слоям, что означает, что вы можете перебросить некоторое количество слоёв модели на GPU, тем самым ускорив работу модели, и освободив немного ОЗУ.
Так что, если у вас есть видеокарта от Nvidia, можете смело перераспределять часть нагрузки на GPU. Как это сделать: Выберите пресет CuBLAS в лаунчере, и установить кол-во слоёв, которые вы хотите выделить на видеокарту.

Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом ChatGPT, IT, Технологии, Длиннопост

Чем больше VRAM = тем больше слоёв можно выделить = тем быстрее работа нейросети


Также, у кобольда появился небольшой лаунчер, скриншот которого выше. При запуске советую выставить Threads равным кол-во ядер вашего процессора, включить High Priority и Unban Tokens.

Также, если вы используете модели с большим контекстом, не забудьте увеличить Context Size.

Способ второй - запуск на видеокарте (oobabooga)

Требует много VRAM, но скорость генерации выше. Запуск чуть сложнее, но также без выноса мозгов.

Скачиваем вот этот репозиторий oobabooga/one-click-installers и читаем приложенные инструкции - нужно будет запустить несколько батников.
К вам в ту же папку загрузится репозиторий oobabooga/text-generation-webui, и подтянет за собой все необходимые зависимости. Установка проходит чисто, используется виртуальная среда.

К сожалению, в повсеместные 8ГБ VRAM поместится только 7B модель в 4bit режиме, что по факту будет хуже модели 13B из первого способа. 13B влезет только в 16GB VRAM видеокарту.
А если у вас есть 24ГБ VRAM (RTX 4090, ага), то к вам влезет даже 30B модель! Но это, конечно, меньшая часть людей.

Интерфейс чуть менее удобен, чем в первом способе. Чуток тормозной. Единственный плюс - есть extensions, такие как встроенный Google Translate, который позволит общаться с моделью на русском языке.

Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом ChatGPT, IT, Технологии, Длиннопост

oobabooga - cкриншот со страницы проекта на github


Теперь лаунчер стал чуть проще, и никакие параметры заранее выставлять не нужно. Просто запускаете то, что установилось, и в настройках выбираете движок, на котором будет работать модель.

Движков кстати добавили много, и в том числе добавили llama.cpp в этот интерфейс (Однако напомню, что весит он > 15ГБ, и если вам нужно запускать llama.cpp - лучше это делать с кобольдом).

llama.cpp - если хотите запускать ggml модели на этом интерфейсе.
exllama - ОЧЕНЬ быстрый движок, который позволяет запускать модели на нескольких видеокартах одновременно. Однако, на данный момент не позволяет выгружать слои моделей на CPU. Использовать только если у вас много VRAM. gptq формат.
GPTQ-for-LLaMa - стандартный движок, который и был до этого. Поддерживает разделение на GPU/CPU, но медленнее чем llamacpp, если у вас мало VRAM. gptq формат.

Все движки и их настройки теперь доступны через интерфейс.

Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом ChatGPT, IT, Технологии, Длиннопост

Выбор движка GPTQ-for-LLaMa, и внизу мы можем выделить кол-во слоёв для разделения на CPU/GPU

Из двух способов я советую использовать первый, т.к. он банально стабильнее, менее заморочен, и точно сможет запуститься у 80% пользователей.
Если у вас есть крутая видюха с хотя бы 16ГБ VRAM - пробуйте запускать на втором.

Где брать модели?

Сейчас есть 3 качественных модели, которые действительно имеет смысл попробовать - LLama, Alpaca и Vicuna.


Llama - оригинал слитой в первые дни модели. По заявлениям синей компании, запрещённой в РФ, 13B версия в тестах равносильна ChatGPT (135B).
По моим ощущениям - на 80% это может быть и правда, но и не с нашей 4bit моделью.

Alpaca - дотренировка Llama на данных с инструкциями. Сделай мне то, расскажи мне это и т.д.
Эта модель лучше чем LLama в чат режиме.

Vicuna - дотренировка LLama прямо на диалогах с ChatGPT. Максимально похожа на ChatGPT. Есть только 13b версия, на данный момент.
Подчеркну - МАКСИМАЛЬНО похожа. А значит - также как и ChatGPT процензурена.

Скачать каждую из них можно вот здесь - https://huggingface.co/TheBloke (Профиль huggingface пользователя, который делает качественные кванты моделей в любом формате. Можно найти почти всё.)
Обратите внимание на формат перед скачиванием - ggml или gptq.


Предыдущие модели хоть и по-прежнему рабочие, но немного устарели. Появилось много новых вариантов, которые можно найти по ссылке https://huggingface.co/TheBloke

Вот модели, которые, по моему мнению, лучше всего показали себя с момента публикации:

Llama2 - новая, официальная, стандартная версия ллам. Умнее чем первая версия, но ещё больше цензуры. (GPTQ | GGML)

Wizard-Vicuna-13B-Uncensored - Универсально-хорошая модель, которая умнее и стандартной llama, и vicuna. Расцензурена. (GPTQ | GGML)

WizardLM's WizardCoder 15B - хорошая модель для написания кода (GPTQ | GGML)

Llama2 13B Orca v2 8K - хорошая roleplay модель с расширенным контекстом (модель помнит/воспринимает больше текста при общении) (GPTQ | GGML)

Чтобы скачать - переходим по ссылке, потом на Files and versions.
Для GGML формата просто качаем файл с припиской q5_K_M. Если таких их нет - q4_1. Это форматы квантования.

В GPTQ просто так качать сложно, поэтому качаем через oobabooga -> Model -> Download custom model or LoRA -> вставляем ссылку и нажимаем Download.

Варианты использования?

Оба интерфейса позовляют создавать персонажа, в роли которого будет работать AI.
Поэтому, вариантов использования может быть довольно много.

Пропишите персонажу, что он - AI-ассистент программист, и он будет помогать с кодом.
Скажите, что он повар - и он поможет с рецептами.
Скажите, что он милая девушка - и придумайте сами там что-нибудь…
В общем, тут всё как с ChatGPT - взаимодействие в чате мало чем отличается.

Также, в первом интерфейсе есть режимы Adventure и Story - позволяющие играть с нейросетью, или писать истории.

Продвинутые же пользователи могут подключиться к API запущенных моделей, и использовать их в своих проектах. Оба интерфейса позволяют подключиться по API.


Также, для roleplay штук, советую запустить другой интерфейс - SillyTavern. Почему не писал о нём ранее - потому что это действительно только интерфейс, в котором нет движка. Для его работы нужно запускать либо koboldcpp, либо oobabooga с флагом --api.
Почему он лучше для roleplay - широкая поддержка различных персонажей, в том числе от сообщества, Author's note, World Info, ПЕРЕВОД ЧАТА НА РУССКИЙ ЯЗЫК, Text-to-Speech и многое другое.

Идеальная связка, по моему мнению, koboldcpp + SillyTavern.

Запуск аналогов ChatGPT на домашнем ПК в пару кликов и с интерфейсом ChatGPT, IT, Технологии, Длиннопост

Если вам хочется попробовать оригинальный Chat GPT-4, то велком в моего телеграм-бота. Безлимитные запросы и стоит дешевле в 2 раза, чем на официальном сайте. Потому, что работает через api Open AI/

Показать полностью 5

Вот и светлое далёко подъехало - ChatGPT в роли native speaker для изучения английского - уже лучше самых нативных нейтивов

Прикупил себе чудо буржуазной машинерии - ChatGPT-4.

Регулярно с ним общаюсь и отчётливо вижу, как он оставит без работы толпу native speakers, которым платят только за то что они нейтивы и родились в более удачном месте. Ну вот эти сервисы, где вы платите за общение с нейтивами, чтобы практикой поддерживать свой уровень английского.

Так вот в изучении английского ChatGPT-4 офигителен: он может всё объяснить – что означает что, как надо было правильно, почему тут написано так и не иначе, исправит ваши ошибки, объяснит правила. И просто поговорит с вами на отличном английском.

Кстати, английских языков он знает много и вы можете ему сказать, на каком из них с вами общаться. Хотите жаргон – будет вам жаргон. А можете и с Шекспиром пошушукаться.

В принципе, он прекрасно заменяет общение с нейтивом, если бы не одно но – отсутствие голосового интерфейса.

Как только к нему прикрутят нормальный голосовой интерфейс (нормальный, а не всякое говно), то с ним можно будет общаться как с нейтивом – и тогда нахуй будут не нужны все эти сервисы: зачем платить по 10-20 баксов за час общения с нейтивом, если можно заплатить столько же за месяц общения с гораздо более толковой языковой моделью. И терпеливой, кстати.

Так что, кто еще не испытал – советую, потрясающая вещь. Всем нам пиздец, друзья.

Используйте Chat GPT-4 телеграм бот. В РФ это самое удобное решение. Да еще и дешевле на 50%, чем на официальном сайте, так как работает через api Open AI.

Исправляем грамматику с помощью GPT-4 API

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

С самого выхода ChatGPT я начал ее использовать для решения задач корректуры текста: устранения опечаток, исправления ошибок и улучшения стилистики.

Однако, при использовании веб-версии ChatGPT возникают некоторые проблемы:

  1. Приходится вчитываться в исправленный текст, чтобы найти изменения

  2. Не используется вся мощь API, в котором есть возможности для более тонкой настройки бота

    1. Можно задать системное сообщение, в котором объяснить ассистенту смысл его существования

    2. Few-shot learning: можно предоставить набор примеров коррекции сообщений

  3. Неудобство: нужно вставлять свой текст в веб-версию, затем набирать свой промт для его улучшения (который может быть разным в зависимости от типа коррекции). Хотелось бы иметь Web UI, где нужно просто вставить текст и выбрать тип коррекции - а далее текст будет обрабатываться оптимизированным промтом

Данный проект призван устранить эти недостатки. Потыкать приложение можно здесь (для использования нужен OpenAI API-ключ).

Приложение

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

В веб-приложении есть поле с текстом, в которое пользователь вводит свое сообщение, которое нужно исправить. После нажатия на изображение-кнопку в поле справа постепенно выводится исправленная версия, а по окончании вывода выделяются изменения. При наведении на изменение, tooltip показывает, что конкретно было исправлено.

Поддерживается множество языков. Можно либо выбрать язык исходного сообщения вручную, либо положиться на встроенный детектор языка.

Можно выбрать используемую модель: общедоступную GPT 3.5 Turbo, либо GPT-4. Доступ к GPT-4 API сейчас по вейтлисту, сама модель более чем на порядок дороже, но зато гораздо умнее.

Поддерживаются два типа коррекции текста:

  1. just correct grammar просто исправляет грамматические, орфографические и пунктуационные ошибки

  2. make more natural вдобавок улучшает стилистику текста. Однако, тут изменения более кардинальны, и иногда они могут менять смысл текста

OpenAI API стоит денег. Передо мной встала задача: как сделать проект юзабельным для множества людей, если он базируется на платном API? Брать с пользователей деньги и оплачивать своим ключом - такая стратегия не подходит для небольшого пет-проекта, потому что реализовать биллинг - отдельная большая задача. Поэтому пусть пользователь сам вводит свой ключ и платит с него. При нажатии на шестеренку открывается страница с настройками, где можно ввести/изменить свой API-ключ.

В такой парадигме проект пришлось делать вообще без сервера, чисто на React (потому что ключи нельзя никуда отправлять). Кроме того, для еще большей прозрачности код я открываю: https://github.com/einhornus/language-challenge-react (данное приложение - это на самом деле только часть большого проекта, который находится в процессе разработки).

Я питонист-MLщик со специализацией в NLP, кодинг на React для меня - выход из зоны комфорта. Поэтому прошу сильно не пинать из-за кривизны UI и качества JS-кода в репе.

Фокус данного проекта - на максимизации качества коррекции текста и на скорости релиза юзабельной версии.

GPT-4 API

В этой секции я расскажу про GPT-4 API и покажу, как с его помощью можно решать задачи NLP.

В API есть метод ChatCompletion, который принимает список сообщений, который мы будем называть промтом, и возвращает следующее сообщение.

Каждое сообщение этого списка - это словарь с двумя полями: role и content.

По значению role сообщения классифицируются на 3 типа: системные сообщения (role="system"), сообщения пользователя (role="user") и сообщения ассистента (role="assistant").

Системное сообщение содержит в своем поле content высокоуровневые инструкции для ассистента - то, как он должен действовать. Если в промте несколько системных сообщений, иметь значение будет только последнее из них (новые системные сообщения переписывают старые). Как расположение системного промта относительно остальных сообщений влияет на результат - я пока не понимаю, это открытый вопрос.

Последовательностью сообщений пользователя и ассистента задается предыдущая беседа между ними. Однако, эти сообщения также можно использовать для описания примеров решения задачи (few shot learning). В каждом сообщении пользователя находится пример входных данных, а в сообщении ассистента после него - ожидаемое решение. После примеров идет сообщение пользователя, в которое записываются входные данные, для которых нужно получить решение.

Рассмотрим задачу машинного перевода с английского на русский. В этом случае промт может выглядеть следующим образом:

[ { "role": "user", "content": "Hello how are you?" }, { "role": "assistant", "content": "Привет, как дела?" }, { "role": "user", "content": "Despite the heavy rain, they decided to continue their hike through the dense forest" }, { "role": "assistant", "content": "Несмотря на сильный дождь, они решили продолжить свой поход через густой лес" }, { "role": "user", "content": "The chef, inspired by flavors from around the world, has created a unique fusion cuisine that attracts food enthusiasts and critics alike" }, { "role": "assistant", "content": "Повар, вдохновленный вкусами со всего мира, создал уникальную фьюжн-кухню, которая привлекает как гурманов, так и критиков" }, { "role": "system", "content": "You are TranslateGPT. You translate user messages from English to Russian. You are the most accurate English to Russian translator in the world." }, { "role": "user", "content": "{текст, который надо перевести}" } ]

Если послать API-запрос с таким промтом, в ответ мы получим сообщение ассистента, которое будет содержать перевод нашего текста.

Кроме промта, в запросе к API есть и другие параметры:

  1. model - используемая модель. На данный момент поддерживаются gpt-3.5-turbo (общедоступна) и gpt-4 (пока только для тех, кому предоставили доступ). gpt-4 стоит значительно дороже: 3 цента за 1000 токенов промта + 6 центов за 1000 токенов ответа против 0.2 центов за 1000 любых токенов у gpt-3.5-turbo. Однако, результаты при решении NLP-задач у gpt-4 гораздо лучше.

  2. temperature - число от 0 до 2, которое задает, насколько часто при генерации следующего токена модель будет предпочитать не самый вероятный вариант. Увеличение температуры повышает креативность ответов, но снижает их качество. При решении задач NLP лучше всего просто оставлять температуру равной нулю.

  3. max_tokens - максимальное количество токенов в генерируемом сообщении. При превышении лимита сообщение обрывается.

Полную справку по параметрам в API можно посмотреть здесь. Поиграться с API можно в плейграунде.

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Переводчик в плейграунде

GPT-4 API в JS

В данном проекте мне нужно вызывать GPT-4 API из реакта. Да, существует специальная либа OpenAIApi, но она пока не поддерживает стриминг частичного ответа - чтобы пользователь мог видеть частичный результат по мере генерации сообщения.

Промт для решение задачи

Промт для модели формируется из двух частей:

  1. Системное сообщение, в котором меняется только название языка

  2. Набор примеров, который прописывается отдельно для каждого языка (может быть пустым)

NLP в React

Токенизация

Для токенизации текстов в JS я быстро нашел Intl.Segmenter, который превосходно справляется с задачей. Что важно, он также умеет работать с разными языками. Например, в китайском языке не ставят пробелов, токенизатор будет делить текст на логически связанные последовательности из нескольких иероглифов.

Распознавание языка

Алгоритм для коррекции текста требует идентификатор языка для извлечения примеров и токенизации текстов. Пользователь может выбрать язык напрямую, но более удобно иметь опцию автоматического распознавания языка.

С распознаванием языка возникли проблемы.

Сначала я наткнулся на либу franc, она не подошла из-за отвратительной точности распознавания.

Затем я посмотрел несколько других либ, которые у меня не получилось установить (видимо, они предназначены для Node.js). Была пара решений с внешним API, но для моего проекта это не подходит.

Потом у меня возникла идея решить эту задачу с помощью GPT-3.5 API. В целом это работало, но в сложных случаях модель начинала "ломаться" и выдавать что-то вроде "It seems to be a text in English with a couple of Russian words thrown in there as well" вместо того, чтобы просто выдать название языка в первых двух токенах. Кроме того, хотелось бы обойтись без всякой асинхронности, чтобы детекция языка происходила мгновенно. Да и вообще, использовать LLM для такой простой задачи - это оверкилл.

В итоге я быстренько навелосипедил собственный детектор. Он выбирает между 15 языками, опции "неизвестный язык" не предусмотрено.

Если у языка уникальная система письма, то распознать текст на нем несложно - нужно просто удостовериться, что процент символов из соответствующего алфавита превосходит определенный порог. С помощью такого подхода мой детектор распознаёт китайский, японский, корейский, хинди, армянский, грузинский и тайский. Есть проблема с деванагари - оно на самом деле используется некоторыми другими популярными индийскими языками, не только хинди. Этой проблемой я пока пренебрег.

Если текст прошел фильтр выше (то есть, он скорее всего написан на латинице или кириллице), я запускаю основной алгоритм классификации между 8 языками - английский, русский, испанский, немецкий, французский, португальский, итальянский, голландский.

Для каждого из этих языков я скачал частотный список слов и для 1000 самых частотных слов посчитал их нормированную частоту. Также я посчитал матожидание нормированной частоты слова, если оно отсутствует в списке 1000 самых распространенных.

Далее, я применяю метод максимального правдоподобия: для каждого языка я токенизую текст и считаю вероятность принадлежности текста к языку как произведение нормированных частот соответствующих слов (или их матожиданий для редких слов).

Поиск изменений

Пусть нам даны исходный текст и его исправленная версия (оба - в виде массива слов). Требуется найти кратчайший список операций для преобразования первого массива во второй. Операции бывают трех видов: удаление слова, вставка слова и замена слова. Для операций удаления нужно найти индекс удаляемого слова в массиве исходного текста, для операций вставки - индекс вставляемого слова в массиве исправленного текста, а для операций замены - оба индекса.

Нетрудно заметить, что длина нашего кратчайшего списка операций эквивалентна расстоянию Левенштейна. Таким образом, для решения задачи нужно восстановить редакционное предписание в алгоритме Левенштейна.

Результаты

Если использовать GPT-4, то получаются просто офигенные результаты

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Исправление грамматики в сообщении на русском от неносителя

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Улучшение текста, написанного в слегка неформальном стиле. Все изменения по делу

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Исправление introduction, найденного в одном дискорд-сервере

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Улучшение моего неформального сообщения на английском

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Мегахардкор - сочинение Ли Вонг Яна

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Еще одно

На GPT-3.5 результаты похуже, но все равно очень даже неплохие

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Результаты на GPT-3.5 слабо отличаются от результатов на GPT-4

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Очень много исправлений по сравнению с GPT-4

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Результаты на GPT-3.5 слабо отличаются от результатов на GPT-4

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

GPT-3.5 не исправила "их" → "её"

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Ли Вонг Ян. На этом тесте явно видно превосходство GPT-4

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Тут тоже GPT-3.5 исправляет текст гораздо хуже, чем GPT-4

Исправляем грамматику с помощью GPT-4 API ChatGPT, IT, Технологии, Инновации, Чат-бот, Длиннопост

Прикольная фича: можно вставлять слова на другом языке, и GPT будет переводить их в контексте

Используйте Chat GPT-4 телеграм бот. В РФ это самое удобное решение. Да еще и дешевле на 50%, чем на официальном сайте, так как работает через api Open AI.

Показать полностью 16

Возможно, Виктор Пелевин использует сгенерированные GPT тексты для анонса нового романа?

Возможно, Виктор Пелевин использует сгенерированные GPT тексты для анонса нового романа? ChatGPT, Чат-бот, Научная фантастика, IT, Длиннопост

Ежегодно в конце лета российский литературный мир гадает, выйдет ли новая книга Виктора Пелевина, и о чём она будет? Например, в прошлом году интрига накалилась до предела. А в этом году - тишина. Но не совсем тишина - на нескольких сайтах появились сгенерированные тексты, которые, возможно, являются своеобразной "игрой с читателем" в преддверии нового романа. Или нет? Попробуем проанализировать.

GPT-модели, предсказанные в iPhuk 10

Героем романа iPhuk 10 впервые становится искусственный интеллект, который работает сыщиком и заодно пишет книги. Интерес автора к теме искусственного интеллекта, как мы видим, огромный. И, внезапно, сразу после выхода последнего романа, KGBT+, "выстреливает" GPT-3, а также его "братья" и "дальние родственники"...

Пелевин - писатель на злобу дня, он обязательно вплетет в ткань своих произведений несколько последних тенденций, ключевых событий. И если новый роман осенью выйдет, тема искусственного интеллекта снова должна стать ключевой!

Возможно, это будет продолжение приключений ИИ из iPhuk 10 (почему бы и нет - хорошая "вселенная", как принято называть ранее созданный и до мелочей описанный мир, пропадает).

Вряд ли это будет продолжение явно неудачной "Любви к трём цукербринам", где автор тоже баловался с темой IT - при обсуждении, критике последних романов Виктора Пелевина, эту книгу обычно даже и не вспоминают...

Тишина и какие-то сайты с абсурдными текстами

Пока при попытке набрать в поисковике что-то вроде "новый роман пелевина 2023" высыпаются ссылки (о, хоть кто-то в этом мире высыпается!) либо на старые романы (особенно на нашумевший KGBT+, о котором долго гадали, выйдет он или нет), либо на какие-то непонятные сайты с завлекающими названиями:

Открыв и начав читать текст по любой из этих ссылок, читатель догадается, что текст сгенерирован Chat GPT или аналогичной сеткой, либо, если читатель гуманитарий и не имел дела с нейросетками, он подумает, что текст писал семиклассник, лишь понаслышке знакомый с текстами Пелевина. И никаких новостей о новом романе эти тексты не сообщат.

В общем, тексты таковы, что в любом случае читатель (будь он технарь или гуманитарий) плюнет, выругается и закроет окно браузера. Я представляю себе именно продвинутого читателя, который интересуется выходом новой книги Пелевина и набрал в поисковике такой запрос.

Что не так со сгенерированными текстами?

Но, на мой взгляд, эти тексты написаны специально так, чтобы открывший их не стал дочитывать до конца, бросив через несколько абзацев.

Во-первых, все сайты имеют схожий простенький дизайн. Тексты довольно схожие (мы рассмотрим это чуть ниже). Вероятность того, что создание этих текстов управлялось одним человеком, по-моему, крайне высока. Вы можете изучить данные сайтов, но, по-моему, это излишне.

Во-вторых, ни один из этих сайтов не имеет отношения к искусству (если только не взять длинную резинку, сделать большую натяжку и посчитать таковым podelkisvoimirukami.ru), ни один приличный сайт такое бы не выложил.

В-третьих, - и это самое интересное - все тексты содержат максимум "воды" и общих обтекаемых фраз, характерных для большинства писателей (и такого там тонны и тонны):

В своей новой книге Пелевин поднимает важные вопросы современности и обращается к актуальным темам. Он использует элементы фантастики, чтобы исследовать грани реальности и проложить путь читателям к новым, неизведанным мирам. Автор воплощает свои идеи в оригинальной форме, которая заставляет читателя задуматься и переосмыслить окружающую действительность.

Новая книга Пелевина – это не только фантастический путеводитель, но и литературное произведение, которое открывает новые грани в мире слова. Писатель использовал свой уникальный стиль и язык, чтобы перенести читателей в иное измерение, где грани между фантастикой и реальностью стираются. Этот роман станет настоящим вызовом для читателей, которые готовы погрузиться в неизведанный мир и открыть для себя новые грани литературы.

Но секундочку - как же так получилось, что ни одна из GPT, подбирающих каждое слово с учетом вероятности его появления рядом с фамилией Пелевин, так и не выбросила нам в килобайтах текста ни оборотня (пару раз, правда, он встретился в названии предыдущей книги), ни вампира, ни дискурса, ни хеннелоры, ни суры, ни богини, ни мониту, ни бабла или баблоса?

Почему ни с одним из текстов не поработал редактор-восьмиклассник, открывший Википедию, и оттуда набросавший бы нам характерных "пелевинских" слов?

Вы можете поспорить, но такие длинные и максимально "опресненные" тексты, на мой взгляд, не могли быть выданы нейросетью по запросу со словом "Пелевин", и не могли бы быть доработаны бюджетным редактором. Предположу, что тексты почистили и "опреснили" руками.

Кроме того, возможно, в некоторые тексты специально вбросили явные, бросающиеся в глаза ошибки, которые должны заставить читателя закрыть текст, не дочитав его до конца (где-то Пелевин назван Сергеем, где-то в список его книг добавлены явно левые названия).

Но зачем?

— Где умный человек прячет лист? В лесу. Но что ему делать, если леса нет?

— Да, да, — отозвался Фламбо раздраженно, — что ему делать?

— Он сажает лес, чтобы спрятать лист, — сказал священник приглушенным голосом.

Цитата

В общем, у меня закралось подозрение, что эти тексты, выдаваемые по запросу "новый роман Пелевина 2023" - это специально посаженный лес. А если так, то в нём должен быть спрятан тот самый лист.

Что же это за лист?

Возможно, это отсылка к названию книги или одного из романов, повестей, эссе, которые в ней будут (обычно в книгах Пелевина несколько произведений). Так, это может быть:

  • "Пока нет друзей" и "Зеркало Шальная", которые упомянуты здесь (в самом конце длинного текста! - для тех, кто пересилил себя и дочитал/доскроллил)

  • "Интеллектуалы" и "Корпус полиции", которые названы книгами, вышедшими в 2023 году здесь

  • "Игры на раздевание", " Май", "Сектор песчаных часов", "2023", упомянутые здесь

  • "Баба Яга против", упомянутая здесь

Возможно, это намек на главного героя - в конце длинного нудного водяного текста внезапно:

Главный герой в новом произведении Пелевина является Ярослав Мудрый, великий князь Киевской Руси. Это историческая личность, которая жила в X веке и считается одним из самых выдающихся правителей Руси. Управляя княжеством, Ярослав Мудрый совершил много значительных дел, оставив свой след в истории.

В произведении Пелевина Ярослав Мудрый предстает в совершенно ином свете. Писатель воплощает его в образе современного человека, который оказывается в необычной ситуации или окружении. Это позволяет Пелевину задать вопросы об искусстве управления, смысле власти и роли лидера в обществе.

Возможно, слова "оборотень", "вампир" вычищены из этих текстов, поскольку новый роман будет про ИИ, например, продолжение/из вселенной iPhuk 10 (аналогично тому, как KGBT+ был продолжение/из вселенной Transhumanism Inc.).

Зачем? Например, для того, чтобы встроить повествование новой книги в реальность (посмотрите, на это же намекалось на нескольких сайтах!). Либо для того, чтобы показать, что название новой книги уже мелькало в интернете, просто до него недоскролили.

Немного теории

Мы привыкли (с недавнего момента, который случился меньше года назад!) разделять все тексты в интернете на (1) написанные живым человеком и (2) сгенерированные нейросетью. При этом мы понимаем, что некоторые тексты (3) написаны живым человеком, но на основе материала, накопанного нейросетью.

Возможно, придется ввести еще одну категорию - (4) тексты, написанные нейросетью, но доработанные человеком так, чтобы всем казалось, что они все же написаны нейросетью...

Показать полностью 1

Возможность использования Chat GPT в тестировании на проникновение и в кибербезе

Уже стало традицией, что при посещении различных мероприятий я стараюсь взять интервью у некоторых спикеров. Не всегда получается быстро их опубликовать, процесс написания и согласования зачастую затягивается.

И вот я побывал на конференции PHD 2023. В этом году было, на мой взгляд, больше интересных лекций, чем в предыдущие PHD. В нулевой день конференции я составил небольшой план лекций, но когда пришёл на конференцию, в первый день из‑за большого количество народа не попал ни на один утренний доклад. И тут пришла идея: а почему бы не взять интервью у тех, на чьи лекции я не попал?

Так как Chat GPT сейчас на волне популярности, и многие компании создают свои языковые модели, я решил поговорить про использование Chat GPT в кибербезе с пентестером из компании RTM Group Семёновым Артёмом. Кстати, его доклад советую к ознакомлению.

Возможность использования Chat GPT в тестировании на проникновение и в кибербезе ChatGPT, Технологии, IT, Чат-бот, Искусственный интеллект, Бизнес, Длиннопост

Расскажите в общих чертах, как вы используете чат‑бот Chat GPT?

Ну и API Chat GPT, в том числе. В основном мы используем Chat GPT для улучшения нашей эффективности при выполнении задач, связанных с информационной безопасностью.

Многие люди путают нейро‑модель GPT с ChatGPT‑ботом, поэтому хочу уточнить для них, в чем разница.

В RTM Group используют и бот, и модель. Имеется в виду, что сам GPT предоставляет открытый API, на базе этого API используются инструменты, реализованные для тестирования на проникновение. Наши конкретные кейсы применения Chat GPT, если в рамках пентеста говорить, — это классические генерации вредоносного ПО, безопасная разработка, помощь в вопросах, требующих больших затрат времени на рассуждения и обдумывания.

Расскажите какой‑нибудь кейс на проникновение с использованием Chat GPT.

Была задача на тестирование, а именно провести анализ пользовательских учётных записей. Есть такой инструмент — blood hound. Он позволяет обрабатывать информацию, полученную при помощи сборщика информации shark hound. Проблема в том, что иногда нужно получить конкретные данные, и вкладчик, существующий в blood hound, не удовлетворяет запросу. У blood hound есть язык запросов — cypher. Как раз с помощью Chat GPT можно генерировать запросы для cypher. К примеру, нужно найти всех пользователей, которые могут подключаться по RDP. Для этого пишется текст в Chat GPT, чат‑бот генерирует запрос, с помощью которого извлекаются нужные данные.

Или вот ещё один пример. Есть инструмент ChatGEOGPT. Его идея в том, что при помощи человеческого языка можно найти какое‑то место, например парк, где проходит PHD. Человек подаёт описание боту, и ChatGEOGPT выдаёт точные координаты, инструмент преобразовывает запрос в примерные координатные значения и показывает на карте.

Я так понимаю, что помимо кибербеза во взломах Chat GPT тоже используется?

Да, он используется, в том числе, и во взломах, и злоумышленник применяет чат‑бот для генерации вредоносного ПО, написания вредоносных скриптов. Вообще, для проведения атак есть классические варианты использования чат‑бота: для создания фишинга, написания сайта с каким‑то вредоносным содержанием.

Если говорить о каких‑то особых кейсах, то чат‑бот больше применим для модификации кода. Представим, что у нас есть код, который условно будет вредоносным, и Chat GPT можно попросить объяснить, какие функции могут быть обнаружены средствами защиты. Естественно, есть проблема взаимодействия с пре‑API, так называемая проблема 2021 года. Она состоит в том, что Chat GPT не знает о данных после 2021 года. Сейчас эту проблему решили, добавив интернет в четвёртой версии. Однако выходит, что злоумышленники могут получать актуальную информацию о том, какие в принципе могут быть сигнатуры, какие функции могут быть уязвимыми и далее попросить Chat GPT исправить код, сделав его менее обнаруживаемым.

Во многих чат‑ботах есть проблема: если составить грамотный запрос, он выдаёт изначальные данные, на которых учился. Возможно ли совершить атаку на Chat GPT, чтобы вытащить данные и, воспользовавшись этой уязвимостью, совершить атаку на инфраструктуру, где используется чат‑бот?

Насчёт атак на Chat GPT — это новая область исследования защиты языковых моделей и чат‑ботов. Были примеры, когда пользователи видели чаты других, но это касалось больше уязвимости не самой языковой модели, а базы данных, используемой моделью. В том же Chat GPT был пример, когда была обнаружена уязвимость в БД Redis. Злоумышленник её проэксплуатировал через чат‑бота, и, соответственно, мог видеть диалоги у других пользователей. Вот один из возможных импактов.

Есть известная классическая атака в сфере языковых моделей под названием Promt injection. Её суть в том, что есть текст, есть первое значение, создаётся запрос, потом появляется другое сообщение в том же запросе, но от злоумышленника. Или же, если идёт работа с pdf‑файлом и делается Summariz, может возникнуть другой запрос, который говорит: «не делать этого, делать то». Появляется попытка обмануть языковую модель, в этом суть атаки Promt injection. Такой вектор тоже рассматривается. Я уверен, что он может привести к утечке данных. По крайней мере, он имеет в чём‑то деструктивный эффект по отношению к пользователю, например, выдать не тот результат или что‑то такое.

Я так понимаю, сейчас использование Chat GPT не только в кибербезе, но и вообще в IT‑области представляет собой троянского коня, который неизвестно, что может нести. Правильно?

К сожалению, да, но в его оправдание — всё‑таки компании, производящие большие языковые модели, быстро стараются исправлять недостатки. У некоторых есть свои публичные BugBounty. Однако вопросы исследования защищённости и глубокой проработки модели угроз по‑прежнему остаются открытыми.

Вот вы рассказывали про использование Chat GPT и API Chat GPT. Их внедряют в SOC или стараются всё‑таки этого избежать?

Как его внедряют конкретно в SOC, я не могу сказать, но знаю, что применение там есть. И я использовал инструменты и методы применения Chat GPT. С его помощью можно быстро получать сведения на каком‑либо кусочке информации для анализа. Это в принципе применимо, но есть проблема с NDA. Не всегда SOC, или если говорить об offensive, может передавать данные. Да, их можно обезличить, но не во всех случаях. Всегда есть риск, что информация утечёт, тем более конфиденциальная. Языковая модель начнёт обучаться и выдавать всем пользователям закрытые данные. Вот поэтому вопрос очень спорный с применением. Некоторые компании уже используют вовсю, но, как правило, не уделяют большого внимания вопросам безопасности или просто не задумываются о цене утечки.

Немного в сторону отойдём. Сам Chat GPT может передавать используемую информацию своим разработчикам? Например, как собирают и хранят информацию Facebook или Google у себя на серверах. Может ли потом эта информация быть использована в бизнес‑моделях, например в контекстной рекламе?

Никто не исключает, что Chat GPT что‑то собирает. Учитывая, что бот не является открытым, есть большая вероятность этого. Вот насчёт контекстной рекламы: пока что случаев, которые реально известны человечеству, нет, но исключать этого нельзя. 100% кто‑то уже использует эти данные для сбора статистики: что люди вводят, что люди пытаются получить и, возможно, со временем это будет как‑то косвенно отражено. Возможно, будет появляться таргетированная реклама на основании данных, которые сделал Chat GPT. Однако, повторюсь, пока что публичных случаев такого использования нет.

Расскажите самый нестандартный случай использования Chat GPT в кибербезе.

Есть такая проблема при тестировании на проникновение: при анализе web‑приложения необходимо перечислить всевозможные параметры, директории, субдомены в API. И у меня возникла идея создать инструмент, который на основании Chat GPT мог бы быстро генерировать данные для фаззинга, для перечисления директорий просто путём пользовательского запроса.

Есть известный в хакерских кругах исследователь с ником Boom. Два месяца назад он выпустил на GitHub словарь с бэкапами, который нашел применение в сообществах BugBounty и пентестеров. Начали появляться отчёты о его использовании, и я понял, что для генерации каких‑то значений и их добавления не всегда удобно бывает сгенерировать через Chat GPT, а потом запихнуть в словарь, после чего добавить какие‑то параметры. И тогда я сделал инструмент, использующий Chat GPT, где можно делать это и по маске, и добавляя параметры, создавая огромный словарь с нужными значениями.

Возможно ли использование Chat GPT для социальной инженерии, про фишинг вы уже говорили, а для генерации, например, электронных писем?

Вопрос достаточно хороший. Дело в том, что все языковые модели, как бы этого ни хотелось, до сих пор не всегда выдают человеческий естественный текст. Но иногда при помощи Chat GPT удается создать фишинговые сообщения, которые имеют эффект. Возможность использования, конечно, есть, но если говорить о том, как с этим борются, то недавно российская система «Антиплагиат» внедрила анализ текста на наличие машинного текста или текста, сгенерированного ИИ. Как правило, у таких произведений есть ряд параметров: нестандартное использование пробелов, повторяющиеся слова в заголовках, один заголовок начинается с определённого слова, второй заголовок начинается с такого же слова. Соответственно, по ключевым параметрам можно определить, является ли текст фишинговым или нет, и уберечь себя или пользователей.

Расскажите тогда, с чего начать использование Chat GPT в работе кибербеза. К каким задачам можно применить чат‑бот?

Я буду говорить за сферы тестирования на проникновение, потому что этим занимаюсь. Chat GPT можно применять как компаньона в плане решения общих задач, для узкоспециализированных больше подходит языковая модель Google.

Chat GPT можно применять:

— для генерации фишинговых писем;

— для генерации вредоносного кода;

— для генерации примеров безопасного кода;

— для анализа логов, файлов и данных.

К примеру, даже есть уже инструмент burp gpt, который анализирует параметры запроса и позволяет получить информацию, что он делает. У Chat GPT, на самом деле, достаточно огромные возможности применения, как‑то классифицировать даже не получится.

Мне кажется, наш выдался разговор интересным. Правда, пока непонятно, насколько языковые модели и чат‑боты войдут в IT‑сферу, потому что ещё недавно говорили о метавселенных, NFT и криптовалютах как о будущем, а сейчас это уже никому не нужно. Поэтому стоит понаблюдать за развитием этих технологий. В любом случае, использование в работе всех инструментов положительно сказывается на её качестве, на мой взгляд.

Если вам хочется попробовать оригинальный Chat GPT-4, переходите в телеграм-бота. Безлимитные запросы и стоит дешевле в 2 раза, чем на официальном сайте. Потому, что работает через api Open AI.

Показать полностью 1

Сколько стоит Chat GPT?

А вы знаете, сколько стоит один запрос API Chat GPT? Что скрывается за этим непонятным словом Tokens (токены)? И как сделать запрос дешевле?

Сколько стоит Chat GPT? ChatGPT, Малый бизнес, Бизнес, Рынок, Длиннопост

Сегодня мы разберём тему формирования цены на запросы API Chat GPT, а так же узнаем, как посчитать стоимость вашего запроса.

Начнём с цены и откуда она берётся

Все актуальные цены мы можем узнать на официальном сайте OpenAI (у меня без VPN не открывается).

Давайте разберём на примере мой любимый GPT-3.5 Turbo.

Вот его цена:

4K context

$0.0015 / 1K tokens

$0.002 / 1K tokens

16K context

$0.003 / 1K tokens

$0.004 / 1K tokens

А теперь по порядку.

Что за разные Модели (Model)?
Названия «4K context» и «16K context» обозначают, сколько символов может обработать на входе нейросеть.
«4K context» - может обработать 4 тысячи токенов
«16K context» - может обработать 16 тысяч токенов
* что такое токены я расскажу ниже
4 тысяч или 16 тысяч это довольно большая разница!
А цена увеличивается всего в 2 раза.

Input - цена за входящий запрос
Output - цена за исходящий ответ
Что они обозначают, мы поймём позже

И вот они, цены:
«$0.003 / 1K tokens»
Что такое $0.003 мы понимаем, но что такое 1K tokens, может быть совсем непонятным!
Я изначально думал, что один Токен, это один запрос. (Как же я был наивен!)

Что такое токены?

Яндексим (ищем в интернете)

Токен — это цифровой актив (сертификат), который представляет определенную стоимость, функционирует на основе блокчейна или другой децентрализованной сети и гарантирует обязательства компании перед его владельцем.

Сложно и непонятно.

Спрашиваем Chat GPT

В контексте нейросетей, термин "tokens" (токены) обычно относится к минимальным единицам, на которые разбивается входной текст или последовательность символов перед подачей на обработку модели. Токеном может быть одна буква, одно слово или даже целая фраза, в зависимости от типа и задачи модели.

В итоге мы понимаем, что Токен, это какая-то плавающая единица измерения для нейросети.

Но как так, я ведь плачу за каждую эту единицу свои деньги! Почему я не могу быть точно уверенным в объёме.

OpenAI продумали этот момент и предоставили нам инструмент для вычисления количества токенов в нашем запросе. (тоже открывается только с VPN)

Сколько стоит Chat GPT? ChatGPT, Малый бизнес, Бизнес, Рынок, Длиннопост

скриншот с сайта https://platform.openai.com/tokenizer

Сюда мы можем вставить наш текст, который мы хотим отправлять в запрос нейросети и получить число затрачиваемых токенов на наш запрос.

🛑 Заметил, что число токенов на русском языке не соответствует реальному запросу. На английском языке расчёт точный.

Но мы же не будем каждый раз переходить на сайт, вставлять наш запрос и подсчитывать, сколько же он стоит!

И не надо!)
Точный расчёт затраченных токенов нам придёт в ответе от Chat GPT.

🛑 Сейчас будет много непонятного для обычного пользователя, и чтобы не нагружать вас терминами, я скрою блоки с кодом, формулами и вычислениями.

Итоги

Я подробно описал, как рассчитать стоимость одного запроса API Chat GPT в скрытом блоке РАССЧИТАЕМ СТОИМОСТЬ ЗАПРОСА.

🛑 Все суммы ниже относятся к gpt-3.5-turbo-16k, если вы хотите использовать gpt-3.5-turbo, то делите все итоговые суммы на 2.

Если обобщить весь блок и сказать очень примерную цифру.
То за 3000 русских символов в запросе мы заплатим 81 копейку с курсом в 91 рубль за доллар.
И очень грубо говоря: 3000 / 81 = 0,027 копеек за одни символ.
Для точных расчётов ознакомьтесь с блоком расчёта цены!

А за один хороший запрос, примерно в 5000 символов, стоимость будет в районе
1 рубля.
Поэтому, любой сервис написанный на Chat GPT, будет стоить около 1 - 2 рублей за запрос.

По итогу, стоимость Chat GPT не такая уж и маленькая, особенно, когда мы хотим добиться от неё вразумительных для нас результатов.

Большая это цена или маленькая, решать вам.

Для какого-то бизнеса подобные затраты будут копейками, а в каких-то проектах, это поставит крест на идее внедрить себе Chat GPT.

Если вам было интересно, буду рад вашему отклику и фидбеку👋

Я и дальше продолжу изучать этот сложный мир нейросетей и делиться с вами своими открытиями!

Использовать Chat GPT-4 в РФ можно через telegram бота. Доступ через api и дешевле, чем оф версия с сайта.

Показать полностью 1

Я попросил chat GPT создать текстовую игру про пиратов

И он сделал это за 1 секунду.

В игру можно играть прямо в самом чате.

Я попросил chat GPT создать текстовую игру про пиратов ChatGPT, Gpt4
Я попросил chat GPT создать текстовую игру про пиратов ChatGPT, Gpt4

Chat GPT-4 в telegram. Дешевле, чем на оф сайте!)

Показать полностью 1

Чат гпт в телеграмме. Стоит ли оно того?

Десятки ботов предлагают доступ к популярным нейросетям. Разбираемся, реальность это или обман

Чат гпт в телеграмме. Стоит ли оно того? Гайд, Чат-бот, Искусственный интеллект, ChatGPT, Длиннопост

В «Телеграме» все чаще можно наткнуться на ботов, которые предлагают сгенерировать текст или картинки.

Разработчики обещают простой доступ к нейросетям без навыков программирования, необходимости устанавливать сторонний софт и с оплатой российскими картами. Таких ботов можно найти по прямому поиску, через рекламу или в многочисленных статьях в сети. Возникает вопрос: что скрывается за очередным сервисом с названием ChatGPT Bot или Midjourney Bot?

Мы разобрались, что обещают авторы нейросетевых ботов в «Телеграме», и что на самом деле получают пользователи.

Стоит ли искать нейросетевых ботов в «Телеграме»

Официальных ботов в «Телеграме» нет. У нейросетей Midjourney, Stable Diffusion и ChatGPT нет своего сервиса в мессенджере. Пользоваться ими можно только на официальных сайтах этих нейросетей — они указаны в конце нашего материала.

Разработчики ботов могут вводить в заблуждение. Многие боты называются так же, как официальные нейросети, хотя «под капотом» может скрываться что угодно. Разработчики не раскрывают версии моделей или выдают устаревшие версии нейросетей за актуальные.

Спустя несколько бесплатных попыток многие боты просят деньги за подписку. Расчет на то, что вы купите подписку, думая, что подписываетесь на официальный сервис. На деле вы получите модель нейросети неизвестного происхождения.

Для подключения нейросети к боту у нее должен быть открыт API — набор инструментов для разработчиков, с помощью которых одна программа может использовать другую. Встроить нейросеть в «Телеграм» можно, если разработчик имеет доступ к коду нейросети.

API открыт только у Stable Diffusion. Доступа к API Midjourney нет, а у ChatGPT и Dall-E 2 — платный и только для разработчиков.

Чат гпт в телеграмме. Стоит ли оно того? Гайд, Чат-бот, Искусственный интеллект, ChatGPT, Длиннопост

Как работают боты ChatGPT в «Телеграме»

В «Телеграме» есть десятки ботов, которые выдают себя за ChatGPT: указывают сервис в названии, используют брендинг компании OpenAI. И на первый взгляд кажется, что все соответствует истине: боты, как и ChatGPT, генерируют посты, сценарии, тексты песен.

Неизвестно, что скрывается за ботом. У OpenAI доступно несколько языковых моделей для разработчиков. Доступ к API у них платный, при расчете тарифов используется система токенов. Работает она так: разработчики платят определенную сумму за тысячу токенов — сгенерированных частей слов. Тысяча токенов равна примерно 750 словам. Например, в этом абзаце около 60 токенов.

Пользователи ботов генерируют текст и таким образом тратят токены, за которые заплатили разработчики. Из-за этого во многих ботах есть лимиты на сообщения, множество рекламы или платная подписка. Вряд ли найдутся альтруисты, готовые предоставить сервис и платить за него из своего кармана. Зато можно сделать бота с ChatGPT для личного использования.

Самая дешевая модель Ada стоит 0,0004 $ за тысячу токенов, самая дорогая и продвинутая Davinci — 0,02 $ за тысячу токенов. GPT-3.5 — доступ к ее API открыли недавно, — на которой работает ChatGPT, стоит в десять раз дешевле Davinci — 0,002 $ за тысячу токенов.

Доступ к API GPT-4 обычным разработчикам пока получить непросто: нужно записываться в лист ожидания и дожидаться ответа от OpenAI. Модель самая дорогая из всех — 0,03 $ за тысячу токенов.

Чат гпт в телеграмме. Стоит ли оно того? Гайд, Чат-бот, Искусственный интеллект, ChatGPT, Длиннопост

ChatGPT хуже GPT-4?

Open AI выпустила четыре версии языковой модели GPT, которая обучается на текстах из интернета и может генерировать осмысленные ответы на вопросы.

Базовый ChatGPT работает на версии GPT-3,5. Основное отличие от версии GPT-3 — наличие «памяти». Модель запоминает детали разговора и может строить ответы, основываясь на информации, которую ей уже сообщил пользователь. Работает с русским языком, но с английским справляется намного лучше.

GPT-4 лучше учитывает контекст, умеет распознавать изображения, хорошо работает с русским языком и сдает сложные экзамены на уровне отличников. В бытовом общении и простых задачах разница между GPT-3,5 и GPT-4 может быть едва заметной. Однако разрыв между версиями становится очевидным по достижении определенного порога сложности задачи. GPT-4 доступна по подписке на ChatGPT.

Текст был спонсирован ребятами, которые сделали бот Chat GPT-4 в телеграме.

Я лично пользовался им, там действительно такая версия используется.

Вот собственно бот: Chat GPT-4

Как работают боты для рисования картинок в «Телеграме»

Чат гпт в телеграмме. Стоит ли оно того? Гайд, Чат-бот, Искусственный интеллект, ChatGPT, Длиннопост

В основном они работают по одному и тому же принципу — запускаете бота, вводите текстовую команду и получаете в ответ сгенерированное изображение. Разработчики ботов заявляют, что предоставляют легкий доступ к популярным нейросетям. Вот они:

  • Midjourney — оригинальной нейросетью можно пользоваться через официального бота в «Дискорде». Но бесплатная версия ограничена 25 попытками, а оплатить премиум с помощью российской карты нельзя.

  • Stable Diffusion — это нейросеть с открытым исходным кодом, при желании каждый может себе поставить сборку для генерации и пользоваться на компьютере. Но для этого необходимо мощное железо.

  • Dall-E 2 — эту нейросеть создала компания OpenAI, разработчики ChatGPT. Доступ к ее API платный.

Главная проблема в том, что под ботами с названием Midjourney Bot или Dall-E 2 Bot может скрываться что угодно. Сложно с ходу сказать, какую модель использует тот или иной сервис в «Телеграме».

Чат гпт в телеграмме. Стоит ли оно того? Гайд, Чат-бот, Искусственный интеллект, ChatGPT, Длиннопост

Проще всего со Stable Diffusion. В «Телеграме» действительно есть несколько рабочих ботов на основе нейросети. Они используют вычислительные мощности, которые предоставляют разработчики, и модель OpenJourney, имитирующую результаты генерации Midjourney.

Чат гпт в телеграмме. Стоит ли оно того? Гайд, Чат-бот, Искусственный интеллект, ChatGPT, Длиннопост

Вероятно, выбирают именно эту модель, потому что Midjourney по простому запросу генерирует красивые картинки, а в Stable Diffusion нужно прописывать большие и детальные промпты, чтобы получить нечто похожее.

Но не нужно от таких ботов ожидать качества «настольной» Stable Diffusion, поскольку, как правило, они используют старые модели — новые выходят буквально каждую неделю. Картинки получаются в лучшем случае средние. По уровню они близки к Dream Studio — браузерной облегченной версии Stable Diffusion.

У Midjourney нет открытого API. Но в теории нейросеть можно как-то связать с «Телеграмом» через «Дискорд». Я обнаружила бота, генерирующего такие же картинки, как в нейросети, и по стилистике, и по деталям.

Но разрешение у получившихся в «Телеграме» картинок очень низкое. Бот дает одну бесплатную генерацию в сутки. Чтобы сделать апскейл картинки — увеличить ее разрешение — придется ждать следующего дня. После этого бот требует 199 Р в месяц за пять запросов в сутки. При этом в официальном Midjourney есть 25 бесплатных генераций, а минимальная подписка стоит 10 $⁣ (918 Р) и дает 3,3 часа генерации в месяц. За это время можно сгенерировать сотни картинок.

Опять же: скорее всего, мне еще повезло, что я наткнулась на бота с Midjourney в названии, который действительно рисует как Midjourney. С большей вероятностью под ботами-аналогами будет скрываться та же OpenJourney или другие бесплатные модели.

У Dall-E 2 платный API. Для разработчиков генерация одной картинки разрешением 512 × 512 пикселей стоит 0, 018 $. Расходы покрывать придется либо навязчивой рекламой, либо платной подпиской. К тому же нет гарантий, что бот действительно использует модель Dall-E 2, а не одну из версий Stable Diffusion. Бесплатно Dall-E 2 можно попробовать на сайте OpenAI.

Из официального есть разве что бот Сбера под названием Malevich, который использует модель ruDall-E. Из плюсов: Malevich, в отличие от остальных нейросетей, понимает запросы на русском языке.

Но ruDall-E уже сильно устарела: она выходила во времена, когда можно было удивить размытыми картинками с артефактами, лишь издалека похожими на изначальный запрос. Результаты не сравнятся с тем, что сейчас можно сгенерировать даже в бесплатных браузерных версиях.

Показать полностью 5
Отличная работа, все прочитано!