Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Классическая игра в аркадном стиле для любителей ретро-игр. Защитите космический корабль с Печенькой (и не только) на борту, проходя уровни.

Космический арканоид

Арканоид, Аркады, Веселая

Играть

Топ прошлой недели

  • Animalrescueed Animalrescueed 43 поста
  • XCVmind XCVmind 7 постов
  • tablepedia tablepedia 43 поста
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
0
NoBoundaries
NoBoundaries
Искусственный интеллект

Как собрать вечнозелёный контент-план с ChatGPT, если хочется работать — но не хочется гореть⁠⁠

10 дней назад

Время на запуск: 15 минут, никакого «сто дней в Notion».

Как собрать вечнозелёный контент-план с ChatGPT, если хочется работать — но не хочется гореть

Как собрать вечнозелёный контент-план с ChatGPT, если хочется работать — но не хочется гореть

1️⃣ Нейросеть вместо бренд-стратега: выбери 5 столпов

Запусти ChatGPT с простым промптом:
«Назови 5 ключевых направлений для контента бренда [твоя сфера]: образование, кейсы, обзоры, новости, личные истории».
Для fashion получишь сет: стиль и образы, материалы, тренды, бренд-легенды, жизнь комьюнити.
Можно сразу уточнять — пусть нейросеть выдаст не просто слова, а нормальные рабочие темы.

2️⃣ Кластеры: контент-машина на автопилоте

Промпт:
«Для направления “[название столпа]” — дай 1 лонгрид, 3 статьи, 7 идей для соцсетей, 2 лид-магнита».
Пример (столп: "стиль и образы"):

  • Лонгрид: «Гардероб на 7 случаев жизни»

  • 3 коротких: (а) «Как сочетать цвета», (б) «Что должно быть в базовом гардеробе», (в) «Главные аксессуары сезона»

  • 7 постов в Instagram/Reels: от «3 образа — одни брюки» до «опрос: кэжуал или классика?»

  • Лид-магниты: чек-лист «идеальный гардероб», PDF «шпаргалка по цветам».

3️⃣ Оформление — как для ленивых и занятых

Все идеи сохраняй в Google Sheets, Notion или просто свой любимый Tasker.
Сортируй по месяцам и типам контента.
В результате — не страдаешь каждую неделю, а просто обновляешь матрицу раз в сезон.

Лайфхак:
Не стесняйся корректировать промты и докидывать свои инсайты — нейросеть флексит, когда ей указывают, как надо.


Контент-план строится в один присест, ты не мучаешься с фильтрами и brainstorm'ами, а пишешь то, что не стыдно запостить.


Если хочешь такой же каркас под свою нишу — пиши, подкину промт и быстро соберу персональную тактику. И пусть ваш контент живёт дольше, чем мемы из TikTok!»

Показать полностью
[моё] Тренд Искусственный интеллект Чат-бот Развитие Openai Промпт
0
2
NoBoundaries
NoBoundaries
Искусственный интеллект

3 промпта для Perplexity, которые заменят вам Google⁠⁠

10 дней назад

Perplexity - мощный инструмент, который способен легко помогать с ежедневными делами за счет глубокого анализа источников и хорошей работы с поисковиками, рассмотрим бытовые случаи его использования:

3 промпта для Perplexity, которые заменят вам Google 

3 промпта для Perplexity, которые заменят вам Google 

Глубокое изучение любой темы"Включи режим 'Copilot' и действуй как профессиональный редактор статей. Мне нужен развернутый ответ на тему: [любая тема]. Структурируй ответ по ключевым разделам. В конце предоставь список из 5 ключевых источников, которые ты использовал, с активными ссылками"— Пример использования: подробный анализ принтера, его деталей, возможных функций и ключевых производителей принтеров. Можно добавить

Работа с email-рассылками

"Сгенерировать ответ на электронное письмо в X тоне, учитывая предыдущую переписку: "предыдущая ветка писем или контекст"."— Пример использования: генерация ответа на рабочее письмо от руководителя в теплом, дружелюбном и профессиональном тоне по прошлым сообщениям

Создание списка для личного использования (в моем случае для путешествия, можно преобразовать под любые другие нужды)

"Я планирую поездку в [n-место] на N-дней. Составь для меня детальный маршрут с привязкой к районам города. Укажи не только достопримечательности, но и местные кафе с высоким рейтингом рядом с ними, а также логистику между точками (пешком/транспорт)."— Пример использования: подробный список всего самого важного для путешествия в Стамбул на 4 дня

Эти промпты помогут сильно сократить время для рутинных задач и не вызовут галлюцинаций 😊

Добавь в избранное чтобы не потерять!

Показать полностью
[моё] Чат-бот Развитие Тренд Искусственный интеллект Openai Бот Промпт Perplexity Google Приложение Программа
0
207
GoodCurrentNews
GoodCurrentNews

В Архангельске запустили производство косметики из арктических водорослей⁠⁠

11 дней назад

🧴 В Архангельске открылся новый цех по производству косметики из арктических водорослей. Расширение водорослевого комбината позволит увеличить объёмы выпуска полезной продукции, создать новые рабочие места и укрепить экспортный потенциал региона.

Перейти к видео

https://29.ru/text/business/2025/10/31/76099565/

Промышленность Архангельск Косметика Экспорт Развитие Видео Короткие видео
25
VladLoop
VladLoop
Искусственный интеллект

От случайности к предсказуемости: как получать от AI стабильный результат каждый раз⁠⁠

11 дней назад
От случайности к предсказуемости: как получать от AI стабильный результат каждый раз

Давно наблюдаю, как коллеги и знакомые наступают на одни и те же грабли с AI. Достаточно предсказуемый цикл на мой взгляд. Сначала – неподдельный восторг от технологии. Потом первая попытка "спихнуть" на LLM реальную, сложную задачу. И почти всегда финал один: невнятный, обобщенный результат и разочарованный вердикт: "эта штука не работает" или "слишком глупо, быстрее сделать самому".

Вам это знакомо?

Этот разрыв между ожиданиями "сейчас он всё сделает за меня" и реальностью "он выдал какую-то чушь" – главная причина, почему большинство бросает попытки внедрить AI в свою работу после подобного опыта.

Но вот в чем нюанс. Проблема то не в AI. Проблема в том, что многие сейчас преподносят данную технологию в массы не с точки зрения внятного и структурного обучения, а чисто как сервис, которые якобы читает наши мысли (посмотрите любой маркетинговый видосик от крупных игроков AI). Мало кто из них говорит про такие вещи, как схемы контроля, контекст, few-shot, CoT и так далее.

Я хочу в данном материале рассказать про то, как хотя бы чуть-чуть стать ближе к предсказуемым результатам работы вашей LLM. И как я сам использую простой фреймворк из трех шагов.

Это не будет сложная статья, напичканная материалами из научных работ, а просто здравый смысл, переложенный на общение с машиной.

Что у вас на входе, и что (действительно) должно быть на выходе?

Ни один вменяемый разработчик не начинает писать код без спецификации. Ни один архитектор не закладывает фундамент без чертежа. Так почему мы ждем, что LLM построит нам что-то осмысленное из запроса "напиши текст про маркетинг"?

Планирование, пожалуй, самый скучный, но самый важный этап. Прежде чем написать хоть слово в промпте, нужно четко определить две вещи:

  • Input Schema: Что я даю модели? Какие у меня есть исходные данные, факты, ограничения?

  • Output Schema: Что я хочу получить на выходе? И здесь нужна максимальная детализация.

Не просто "статью", а "статью на 1500 слов в формате Markdown, со структурой из заголовков H2 и H3, тремя практическими примерами и выводом в конце". Чем детальнее схема выхода, тем предсказуемее и качественнее будет результат.

Давайте разберем на простой задаче – "написать пост для социальной сети".

Плохой план: "Хочу пост про n8n".

Результат будет случайным.

Хороший план (спроектированный Input/Output):

INPUT:

  • Тема: Экономия времени с помощью n8n.

  • Целевая аудитория: Технические лиды, уставшие от рутины.

  • Ключевая мысль: Автоматизация – это не про лень, а про высвобождение ресурсов для важных задач.

OUTPUT:

  • Формат: Текст для поста в социальную сеть.

  • Длина: Строго 200-250 слов (чтобы не резался под "еще").

  • Структура: Цепляющий заголовок (Hook) → Описание проблемы → Наше решение → Призыв к действию (CTA).

  • Тон: Уверенный, прямой, без маркетингового BS.

Уже даже с таким подходом, качество ответа LLM должно улучшится.

Также в output можно заложить более сложные вещи.

  • Детальная схема на выходе (Output Schema) – ваше главное оружие против "галлюцинаций" модели. Когда вы просите сгенерировать JSON с полями {"name": "string", "revenue": "number"} или отчет со строгой структурой "Выводы, Риски, Рекомендации", вы не оставляете модели пространства для выдумки. Она вынуждена работать в рамках заданной логики, а не генерировать творческий, но оторванный от реальности текст.

  • Подробнее про Structured Output и Schema-Guided Reasoning можете почитать у меня тут. Эти два подхода помогут усовершенствовать результат работы и контроль над вашей LLM на порядок.

Контекст. Чем кормить модель (и чем не стоит).

Итак, у вас есть план. Теперь нужно дать модели сырье для работы – контекст. И здесь кроется вторая массовая ошибка: завалить LLM всей доступной информацией.

Контекст это не свалка документов из вашего Google Drive. Это тщательно отобранные данные, которые закрывают "пробелы в знаниях" модели о вашей специфической задаче. LLM знает общие вещи о мире, но ничего не знает о вашей компании, вашем стиле общения и вашем продукте.

Подход здесь простой, как в жизни (вообще в целом при работе с LLM рано или поздно вы будете подмечать, что многие паттерны взаимодействия очень схожи с естественными процессами). Вы же не даете новому стажёру весь архив компании за 10 лет, а только релевантные задачи, документацию и фрагменты кода, относящиеся к самой задаче. Все остальное это шум для стажёра, который будет ему только мешать.

Вот простой чек-лист, что стоит и не стоит включать в контекст:

Включать:

  • Специфику вашей компании/продукта: "Мы – open-source альтернатива Zapier, наш главный плюс – self-hosting".

  • Примеры вашего стиля (few-shot): "Вот 2-3 примера наших удачных постов. Пиши в таком же тоне". Это работает на порядок лучше, чем описание "пиши в дружелюбном, но экспертном стиле". Модель учится на примерах, а не на правилах.

  • Ключевые факты и цифры: "У нас 500k активных пользователей". Это приземляет ответ и делает его более достоверным.

Исключать:

  • Устаревшую информацию: Данные пятилетней давности о вашем продукте только запутают модель. Или что лучше, попросить модель самой найти информацию о нас в интернете (вы же знаете, что о вас пишут в интернете?).

  • Противоречивые данные: "Наша аудитория – C-level директора и студенты". Определитесь.

Используйте силу негативных примеров. Вместе с "вот как надо делать" добавьте в контекст "а вот так делать НЕ надо". Например: "Мы пробовали писать в сложном корпоративном стиле и это не сработало. Избегай таких фраз: 'синергия', 'оптимизация бизнес-процессов'". Это еще точнее калибрует модель и экономит вам время на последующей редактуре.

Хороший, отфильтрованный контекст я бы оценил в 20-40% успеха. Он превращает LLM из "всезнайки интернета" в небольшого эксперта, который в курсе последних дел.

Промпт. Сборка инструкции.

Только теперь, когда у нас есть план (Output Schema) и сырье (Контекст), мы готовы писать сам промпт. Промпт по своей сути, просто контейнер, в который мы аккуратно упаковываем все наши предыдущие наработки.

Хороший промпт не похож на разговор. Он похож на конфигурационный файл или четко структурированное ТЗ.

Его анатомия проста:

  • Роль: Самый простой способ задать тон. "Представь, что ты – опытный SaaS-маркетолог, который пишет для технической аудитории".

  • Задача: Четкая, пошаговая инструкция, которая напрямую следует вашему Output Schema. "Напиши пост для социальной сети. Структура должна быть такой: Hook, Problem, Solution, CTA".

  • Контекст и Примеры: Вставляем сюда отобранную информацию из второго шага.

  • Формат и Ограничения: Перечисляем все технические требования из плана. "Длина 200-250 слов. Не использовать фразы 'революционный', 'меняющий игру'".

Рассмотрим пример.

Многие (так делают практически все, кто мало знаком с AI):

Напиши пост для Telegram про n8n.

После изучения основ и подобных материалов (к этому стоит стремится):

# ROLE Ты — опытный контент-маркетолог, работающий в B2B SaaS. Твоя аудитория — разработчики и техлиды. Ты пишешь прямо, по делу, без "воды" и корпоративного булшита. # TASK Напиши пост для такой-то социальной сети, который объясняет ценность автоматизации с помощью n8n для малых команд. # CONTEXT & EXAMPLES - Продукт: n8n — open-source платформа для автоматизации. Ключевое отличие от Zapier — возможность self-hosting и гибкость. - Цель поста: Показать, что 30 минут, вложенные в настройку автоматизации, экономят часы рутинной работы каждую неделю. - Пример хорошего стиля: "Потратил 3 часа на настройку email-последовательности. Сделал то же самое в n8n за 20 минут. Разница в скорости: в 9 раз." - Пример плохого стиля (не использовать): "Наше инновационное решение позволяет достичь синергии..." # FORMAT & CONSTRAINTS - Платформа: Telegram. - Длина: Строго 200-250 слов. - Структура: 1. Цепляющий вопрос или факт (Hook). 2. Краткое описание проблемы (рутина). 3. Пример решения с n8n. 4. Призыв к действию (задать вопрос в комментариях). - Ограничения: Не использовать маркетинговые клише ("лидер рынка", "уникальный").

Разница в результате будет заметной. Но помните: первый промпт редко бывает идеальным. Относитесь к этому как к написанию кода: написали → запустили → увидели результат → поправили → запустили снова. Это нормальный итеративный процесс.

Prompt тоже можно улучшить ещё сильнее, например сделав его в формате json схемы или обвернуть в XML теги. К чему это приведёт и какие результаты может дать, можете прочитать тут. А также небольшой гайд, как можно использовать LLM для создания подобных промптов на полуавтомате.

Что ещё может улучшить ваш опыт при работе с LLM

Есть дополнительная парочка интересных техник:

  • Просите "рассуждать пошагово". Для сложных задач (анализ, расчеты, стратегия) добавьте в начало фразу "Давай рассуждать пошагово". Это заставляет модель включать логическую цепочку (Chain-of-Thought) и не пытаться выдать ответ одним махом. Качество анализа возрастает в разы. По сути это уже реализовано в "думающих" моделях, но этот режим по умолчанию в них не всегда идеален.

  • Всегда указывайте формат. Вместо "сделай список" пишите "выведи результат в виде нумерованного списка в Markdown". Вместо "извлеки данные" – "верни результат в формате JSON с полями name, email". Это делает вывод машиночитаемым и предсказуемым.

  • Управляйте "креативностью". Если вам нужны точные факты, анализ или код, скажите модели "будь предельно точным и придерживайся только предоставленных данных". Если вам нужен брейншторм и идеи – "будь креативным, предложи 5 самых нестандартных вариантов". Это неформальный способ управлять параметром temperature под капотом модели (сейчас я про кейсы, где вам не даны тумблеры по настройки температуры вручную через UI).

Финал?

То самое чувство разочарования от работы с AI уходит в тот момент, когда вы перестаете его "просить" и начинаете им "управлять". Предложенный фреймворк – это ваш начальный пульт управления, который приближает вам контроль над этой технологией. Он не дает 100% гарантий, но покрайне мере я надеюсь, что он заложит базу и вам станет проще понимать куда двигаться дальше.

И вот что интересно: каждая успешная, предсказуемая генерация, полученная с помощью этого подхода, для меня в своё время закрепляла позитивный опыт (по крайней мере обид стало намного меньше). Меня до сих пор мотивирует пробовать снова и снова, улучшать и использовать более глубокие паттерны взаимодействий, но уже с более сложными задачами. Так, навреное, шаг за шагом, и формируется настоящий навык, а не слепая вера в "магию".

Показать полностью
[моё] Развитие ChatGPT Опыт Искусственный интеллект Нейронные сети Openai Длиннопост
4
10
GoodCurrentNews
GoodCurrentNews

Отдыхаем дома: внутренний турпоток по России за 10 лет вырос в два раза⁠⁠

11 дней назад

🏞 Внутренний турпоток по России за 10 лет вырос в два раза. Если в 2014 году он составлял 44,2 млн человек, то уже в 2023 году достиг 83,6 млн поездок, а в 2024 году превысил отметку в 90 млн человек. Регионами-лидерами по динамике роста стали Чечня, Адыгея, Ингушетия, Алтай, Дагестан, Крым и Севастополь.

Перейти к видео

https://rg.ru/2025/10/20/reg-szfo/vnutrennij-turpotok-po-ros...

Россия Развитие Путешествия Регионы Отдых Туризм Видео
116
3
ChessHub
ChessHub
Шахматы
Серия Pikabu против Chesshub: шахматный эксперимент

Челлендж: Pikabu против Chesshub: шахматный эксперимент⁠⁠

11 дней назад

Правила игры простые:
♞ Я хожу → вы в комментариях пишете свой ход.
♛ Через 24 часа выбираем самый популярный.
♚ Один день = один ход. Двигаем партию вместе, как единый игрок.

Была выбрана Защита Каро-Канн, Атака Панова.

Играем дальше: 1. e4 с6 2. d4 d5 3. ed cd 4. c4 Кf6 5. Kc3 e6 6. c5 Сe7 7. Cb5 Сd7 8. a4 0-0 9. Kf3 b6 10. cb Фb6 11. 0-0 Сb5 12. ab a6 13. Cf4 Кbd7 14. Фa4 a5 15. Лfc1 Лfc8 16. h3 Лс4 17. Фd1 Фb7 18. b3 Лb4 19. Лa4 Ke4 20. Ke4 de 21. Лс7 Фb5 22. Лb4 Сb4 23. Ke5 Ke5 24. Ce5 🤜🤛

Ваш ход!

Челлендж: Pikabu против Chesshub: шахматный эксперимент
Чтоб определиться с ходом черных, предлагаю проголосовать:
Всего голосов:
Показать полностью 1 1
[моё] Опрос Шахматы Игры Развитие
33
4
itstorytelling
itstorytelling
Информатика • Алексей Гладков

08.11.1923 — День рождения Джека Килби [вехи_истории]⁠⁠

11 дней назад
🗓 08.11.1923 — День рождения Джека Килби [вехи_истории]

🗓 08.11.1923 — День рождения Джека Килби [вехи_истории]

💭 Лето 1958 года. В офисах компании Texas Instruments почти никого — сезон отпусков. Лишь инженер Джек Килби остаётся на рабочем месте.

Джек Килби

Джек Килби

💡 Именно в этой уединённой обстановке к нему приходит идея, которая навсегда изменит мир: вместо того чтобы собирать электронные схемы из множества разрозненных компонентов, можно разместить их все в пределах одного кристалла.

⚡️Так рождается первая интегральная микросхема — крошечный кусочек германия, в котором впервые удалось объединить все элементы электрической схемы.

Первая интегральная схема, изобретенная Джеком Килби в Далласе во время работы в компании Texas Instruments в 1958 году.

Первая интегральная схема, изобретенная Джеком Килби в Далласе во время работы в компании Texas Instruments в 1958 году.

Это событие стало отправной точкой эпохи миниатюризации:
👉 чипы начали стремительно уменьшаться в размерах;
👉 их производительность неуклонно росла
👉 стоимость производства снижалась
👉 количество выпускаемых микросхем увеличивалось в геометрической прогрессии

😎 Без изобретения Килби не было бы ни iPhone, ни PlayStation, ни GPU как класс — вообще никакой цифровой эры в том виде, какой мы её знаем.

Джека Килби и его заслуги

Джека Килби и его заслуги

🥇 В 2000 году за это революционное изобретение Джек Килби был удостоен Нобелевской премии. Но главная его заслуга — не в награде, а в том, что он подарил миру фундаментальный принцип, на котором держится вся современная IT‑инфраструктура.

⸻

🩵 За это изобретение мы говорим ему большое спасибо)

📼 Как 2 АМЕРИКАНСКИХ Шпиона ОСНОВАЛИ микроэлектронику в СССР
YouTube | VkVideo

=====================================
👇👇Наш канал на других площадках👇👇
YouTube | VkVideo | Telegram | Pikabu
=====================================

Показать полностью 4
[моё] Вехи истории Информатика Информатика Алексей Гладков Научпоп Технологии Схема Процессор Компьютер История IT Компьютерное железо Инженер Развитие Длиннопост
1
7
Ktotonetama
Ktotonetama

Эволюция звезд - пример отсутствия Бога⁠⁠

12 дней назад

(короткие мысли дилетанта)

Развитие звезд от рождения и до смерти происходит по своим естественным процессам, без всякого вмешательства сверхъестественных сил.

Эту аналогию и процесс можно продолжить в бесконечность. Новый центр масс будет концентрировать вокруг себя материю вплоть до возможности термоядерной реакции, рождения звезды и новой звездной системы или галактики. Личный ограниченный Бог или некий Космический Разум тут не при чем. Гравитация неразумна и следует лишь своим материальным (энергетическим) свойствам.

Зарождение биологической жизни тоже происходит по своим естественным причинам, при соблюдении определенных условий и стабильности. Но такие условия не стабильны и редки.

Поэтому цените то, что имеете. Развивайтесь и просвещайтесь. Не тормозите эволюцию, этим вы крадете время своих будущих потомков.

Эволюция звезд - пример отсутствия Бога

например тут https://www.techinsider.ru/technologies/444482-poka-ne-bylo-...

или тут Эволюция звезд.

а еще тут Никитин Михаил «Происхождение жизни. От туманности до клетки»

Показать полностью 1
[моё] Философия Вселенная Эволюция Наука Бог Цивилизация Звезды Развитие Космос Лор вселенной Атеизм Материализм Просвещение Образование Астрономия
17
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии