Высокоточный термометр
Если кому надо, вот на Али, на Яндекс Маркете
Подписывайтесь на наше сообщество на Пикабу Стройка. Интересные решения
Если кому надо, вот на Али, на Яндекс Маркете
Подписывайтесь на наше сообщество на Пикабу Стройка. Интересные решения
Недавно писал статью на эту тему (если глянете, буду признателен https://dzen.ru/a/Z_BvjO9oFCnBqhjp) Солидарен с автором, но хотел бы дополнить: точность ответов нейросетей можно увеличить целым рядом способов. Во-первых, нейронка-это как джин. Что вы у неё попросите, то и получите. Следовательно точный запрос=точный ответ. К тому же в нейрону нейронку можно загружать собственные материалы. Тогда она будет делать ответы, основываясь на них, а не на каких-то непонятых источниках (по дефолту источником информации для нейронки является всё, в том числе наши дискуссии в комментариях). Оттуда и выходят неточности. +обучение на ошибках
Критические решения:
— Медицинские диагнозы, юридические консультации, финансовые прогнозы.
— Любые сферы, где ошибка может привести к ущербу для жизни, здоровья или имущества.
Фактологическая точность:
— Исторические даты, научные формулы, статистика — LLM могут генерировать «правдоподобные заблуждения» (галлюцинации).
Этически спорные темы:
— Вопросы морали, религии, политики — модели могут воспроизводить предвзятость из обучающих данных.
Контекстно-зависимые задачи:
— Личные советы (например, психологическая поддержка), где требуется человеческое сопереживание.
Работа с данными:
— Анализ чисел, расчёты, перевод единиц измерения — LLM часто ошибаются в арифметике.
Творческие задачи:
— Переводы стихов, создание метафор — требуется проверка на соответствие культурному контексту.
Технические тексты:
— Инструкции, документация — ошибка может сделать текст опасным или бессмысленным.
Генерация кода:
— LLM могут предложить устаревшие или уязвимые решения (например, SQL-инъекции).
Любые ответы на узкоспециализированные запросы:
— Медицинские термины, инженерные расчёты — без экспертной проверки не обойтись.
Короткий ответ: Никогда.
Даже в простых задачах LLM могут допускать ошибки из-за:
— Ограничений обучающих данных (например, устаревшая информация).
— Случайных «галлюцинаций» (особенно в малораспространённых языках).
— Контекстных искажений (модель «не понимает» подтекст запроса).
Исключения (условные):
— Шаблонные задачи: Форматирование текста, исправление опечаток, генерация простых синонимов.
— Общеизвестные факты: «Столица Франции — Париж», «2+2=4» — но и здесь возможны сбои!
— Низкоконтекстные запросы: Например, генерация идей для названий или списков.
LLM — это инструмент-«помощник», а не источник истины. Чем выше риск ошибки и её последствия, тем строже должен быть контроль. Всегда перепроверяйте:
— Факты через авторитетные источники.
— Логику через экспертов.
— Код через тестирование.
— Креативную часть через человеческое восприятие.
Если нужны примеры или уточнения по конкретным сценариям — спрашивайте! 😊
-------------------------
-------------------------
Запрос:
Реши задачу: 6/2(1+2)=?
Ответ: 9
Пошаговое решение:
Скобки:
1+2=31+2=3.
Теперь выражение: 6÷2×36÷2×3.
Деление и умножение слева направо:
Сначала выполняем деление:
6÷2=36÷2=3.
Затем умножение:
3×3=93×3=9.
Почему не 1?
Если бы выражение было записано как 6÷(2(1+2))6÷(2(1+2)), ответ стал бы 1. Но в исходной записи 6÷2(1+2)6÷2(1+2) отсутствуют дополнительные скобки вокруг 2(1+2)2(1+2), поэтому по правилам математики (PEMDAS/BODMAS) операции выполняются строго слева направо после раскрытия скобок.
Если кому надо, вот на Яндекс Маркете, и похожая на Али
Подписывайтесь на наше сообщество на Пикабу Стройка. Интересные решения