Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Погрузитесь в захватывающий мир уникальных героев, строительства цитадели и три в ряд битв! Откройте новые горизонты в жанре РПГ.

Время Героев: Три в ряд RPG

Три в ряд, Мидкорные, Приключения

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • Animalrescueed Animalrescueed 36 постов
  • Oskanov Oskanov 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
0
lama.ai
lama.ai
2 месяца назад

Что происходит внутри генераторов видео, когда вы отправляете запрос⁠⁠

***
Ещё больше контента об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

[моё] Openai Искусственный интеллект ChatGPT Чат-бот Нейронные сети Короткие видео Будущее Тренд Digital Дизайнер Мемы Видеомонтаж Смех (реакция) Видео
1
5
user4740118
user4740118
2 месяца назад

Как рождался искусственный интеллект⁠⁠

Древние мечты и первые шаги (Античность - XIX век):

Еще древние греки в своих мифах фантазировали о механических существах например есть автоматы Гефеста.

Как рождался искусственный интеллект Искусственный интеллект, Нейронные сети, Чат-бот, Openai, Будущее, История (наука), Развитие, Разработка, Длиннопост

А философы вроде Платона и Аристотеля пытались разобраться, как вообще работает мышление и логика, закладывая первые камни в фундамент будущей науки. Потом, в Средневековье, Раймунд Луллий предложил механические артефакты для рассуждений. А позже, в XVII-XIX веках, Лейбниц мечтал о "универсальном языке" для логики и машине, которая могла бы им оперировать. Джордж Буль создал свою алгебру логики (булеву) без которой современные компьютеры просто немыслимы. А Ада Лавлейс вместе с Чарльзом Бэббиджем фактически придумали первые принципы программирования для его «Аналитической машины», которая являлась прообразом компьютера.

Рождение науки об ИИ (Начало - середина XX века):

В 1930-40-е годы Алан Тьюринг совершил прорыв ведь он придумал концепцию универсальной вычислительной машины (1936), а потом и знаменитый тест (1950), чтобы определять, может ли машина "мыслить как человек".

Как рождался искусственный интеллект Искусственный интеллект, Нейронные сети, Чат-бот, Openai, Будущее, История (наука), Развитие, Разработка, Длиннопост

Почти одновременно Уоррен Маккалок и Уолтер Питтс создали первую математическую модель искусственного нейрона (1943) ставшую основой будущих нейросетей.

Как рождался искусственный интеллект Искусственный интеллект, Нейронные сети, Чат-бот, Openai, Будущее, История (наука), Развитие, Разработка, Длиннопост

А в 1956 году случилось знаковое событие под названием Дартмутский семинар, где Джон Маккарти ввел сам термин "искусственный интеллект". Это и считают рождением ИИ как отдельной науки. Тогда главенствовал "символьный подход" когда машины манипулировали символами по строгим правилам. Появились и первые удивительные (на тот момент) программы: "Логик-теоретик" (1956), доказывавший математические теоремы; ELIZA (1964-66), умевшая вести диалог как психотерапевт (очень очень очень примитивный чат бот). Пионеры вроде Марвина Минского закладывали основы для решения задач, представления знаний и машинного обучения.

"Зимы" (1970-е - 1990-е):

Первоначальный энтузиазм в середине 1970-х сменился разочарованием. Обещания создать "сильный" ИИ не сбывались, компьютеры были слабыми, задачи оказывались невероятно сложными, а формализовать знания о реальном мире было почти невозможно. Деньги на исследования резко сократились и наступила первая "зима ИИ". Но в 1980-е интерес вспыхнул снова, благодаря "экспертным системам". Эти программы, набитые знаниями специалистов в узких областях (медицина, финансы), умели давать советы и находить решения. Они нашли реальное применение и вернули финансирование. Однако к концу 1980-х и у них обнаружились слабости: их было сложно создавать и обновлять, они "ломались" при нестандартных ситуациях и не могли учиться сами. Наступила вторая "зима". Параллельно рос интерес к альтернативным путям, таким как нейронные сети и статистические методы машинного обучения.

Машинное обучение и глубокие нейросети (Середина 1990-х - 2010-е):

Ключом стал переход к системам, которые учатся на данных. Яркий пример это Deep Blue (1997), обыгравший чемпиона мира по шахматам Каспарова.

Как рождался искусственный интеллект Искусственный интеллект, Нейронные сети, Чат-бот, Openai, Будущее, История (наука), Развитие, Разработка, Длиннопост

Но настоящую революцию совершило глубокое обучение – многослойные нейронные сети. Их успех объясняется тремя вещами: появлением эффективных алгоритмов обучения (особенно усовершенствованное "обратное распространение ошибки", связанное с именами Хинтона, ЛеКуна, Бенжио); взрывным ростом объема данных; и резким ростом вычислительной мощности (благодаря GPU). Результаты были ошеломляющими: распознавание изображений стало точнее человеческого; машинный перевод и анализ текста шагнул далеко вперед; голосовые помощники (Siri, Alexa) заработали; AlphaGo (2016) обыграла чемпиона мира в сложнейшей игре го.

Генеративный бум и большие языковые модели (2018 - Настоящее время):

В 2017 году Google предложил архитектуру "трансформеров" с механизмом внимания это стал переломный момент.

Как рождался искусственный интеллект Искусственный интеллект, Нейронные сети, Чат-бот, Openai, Будущее, История (наука), Развитие, Разработка, Длиннопост

В 2018 появились GPT-1 (OpenAI) и BERT (Google), резко улучшившие работу с текстом. Тогда же заговорили об этических проблемах (deepfakes). Дальше началась лавина: GPT-2 (2019) показала мощь генерации текста, а GPT-3 (2020) с ее 175 миллиардами параметров произвела фурор, создавая тексты, код, переводя языки. AlphaFold (2020) совершил прорыв в биологии, предсказывая структуру белков. 2021-2022 стали годами генеративного ИИ: DALL-E, Midjourney, Stable Diffusion позволили каждому создавать изображения по описанию. А запуск ChatGPT (ноябрь 2022) на базе GPT-3.5 стал настоящим культурным феноменом, показавшим массам мощь ИИ.

Как рождался искусственный интеллект Искусственный интеллект, Нейронные сети, Чат-бот, Openai, Будущее, История (наука), Развитие, Разработка, Длиннопост

Он набрал 100 миллионов пользователей за 2 месяца, изменив образование (не всегда в лучшую сторону), сервис и контент. Инвестиции хлынули рекой.

В 2023 началась гонка моделей. OpenAI выпустил мультимодальный GPT-4o (работающий и с текстом, и с картинками), Google – Gemini, Anthropic – Claude (с акцентом на безопасность). Meta открыла исходный код LLaMA, ускорив развитие и кастомизацию моделей. Появились более компактные и эффективные модели (вроде Mistral). Обработка разных типов данных вместе (текст, изображение, звук, видео) и прочая мультимодальность стала ключевым трендом. Одновременно началась активная работа над законами (например, EU AI Act) и жаркие споры о будущем сверхразума (AGI) и безопасности.

2024 год это масштабирование и осознание рисков. Выходят более мощные версии моделей (LLaMA 3.1, Claude 3, Gemini). Китайские компании (Baidu, Tencent, ByteDance) активно догоняют лидеров, особенно в распознавании изображений. ИИ массово внедряется в бизнес (контент, поддержка клиентов, анализ). Но острее стали проблемы: "галлюцинации" (когда ИИ выдает ложь как факт), предвзятость в результатах, опасные deepfakes и дезинформация. Безопасность ИИ вышла на первый план (но прибыль всё же была и остаётся главнее).

2025 (сегодня и завтра):

Современные ИИ-модели (O3-PRO, Gemini 2.5 Pro, Veo 3) становятся мощнее, автономнее и мультимодальнее, улучшая рассуждения и генерацию видео, но сохраняют проблемы с "галлюцинациями".

Ну, до конца света нам ещё далеко, и это хорошо.

Показать полностью 5
[моё] Искусственный интеллект Нейронные сети Чат-бот Openai Будущее История (наука) Развитие Разработка Длиннопост
1
lama.ai
lama.ai
2 месяца назад

На тематические сабреддиты с ИИ массово набегают сумасшедшие, открывшие в себе «бога» с помощью ChatGPT⁠⁠

Только на r/accelerate таких шизопостеров уже отлетело в бан более 100 человек. Паттерн плюс-минус одинаковый: поехавшие думают, что сделали сверхважное открытие, превратили ИИ в бога или сами стали богом.

Доходит до абсурда — люди готовы бросать семьи, чтобы никто не разрушал их карамельный мир и не мешал подкармливать собственный нарциссизм (или безумие).

***
Ещё больше новостей об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

[моё] Будущее ChatGPT Искусственный интеллект Openai Чат-бот Текст
1
2
lama.ai
lama.ai
2 месяца назад

Lay's заигрался с нейронками на своих чипсах⁠⁠

Шестипалого туриста можно найти на рифлёных «Сметана и лук», продаётся на маркетплейсах и в большинстве магазинов.

Если это маркетинговый ход, то браво. Затаривайтесь, потом продадите как раритет 😏

***

Ещё больше новостей об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

Показать полностью
[моё] Openai ChatGPT Чат-бот Искусственный интеллект Будущее Тренд Чипсы Еда Магазин Дизайнер Мемы Арт Видео Вертикальное видео Короткие видео
3
lama.ai
lama.ai
2 месяца назад

«Отошёл за кофе во время проверки кода, вернулся — и тишина»: как пользователи делились мемами и переживаниями, пока ChatGPT «лежал»⁠⁠

У тех, кто использовал чат-бота как психолога, появилась тревога, а кто-то не смог презентовать инвесторам приложение.

  • По данным Downdetector, сбой в работе ChatGPT начался 10 июня 2025 года примерно в 10:00 мск. OpenAI подтвердила неполадки в работе чат-бота, видеогенератора Sora и API. В 1:30 мск компания сообщила, что проблема решена, не работает только голосовой режим.

  • Один из пользователей на Reddit запустил тред о том, повлиял ли «самый долгий» сбой на его памяти на работу и моральное состояние людей.

«Отошёл за кофе во время проверки кода, вернулся — и тишина»: как пользователи делились мемами и переживаниями, пока ChatGPT «лежал» ChatGPT, Чат-бот, Openai, Искусственный интеллект, Будущее, Видео, Короткие видео, Без звука, Длиннопост

«Мне придётся пойти потрогать траву, это ужасно!», — прокомментировал пользователь

  • Некоторые писали, что используют ChatGPT как личного психолога. «Каждый раз, когда у меня появляются суицидальные мысли, я говорю с ним, так что мне сейчас тяжело, но надеюсь, сервер починят как можно скорее», — рассказал комментатор, который четыре года борется с депрессией.

  • Другие посчитали, что зависимость эмоционального состояния от продуктов ИТ-компаний «вызывает беспокойство».

  • Программист рассказал, как проверял и правил код с помощью ChatGPT и отошёл выпить кофе, а когда вернулся, чат-бот уже не работал. «Теперь придётся выйти на улицу и поиграть в грязи, как в 1979-м», — пошутил он.

«Отошёл за кофе во время проверки кода, вернулся — и тишина»: как пользователи делились мемами и переживаниями, пока ChatGPT «лежал» ChatGPT, Чат-бот, Openai, Искусственный интеллект, Будущее, Видео, Короткие видео, Без звука, Длиннопост

Пост в соцсети X: «Когда разработчик узнал, что не может использовать ChatGPT для программирования, потому что тот не работает»

  • Другой пользователь презентовал инвесторам свой продукт на базе GPT-4.1, но из-за сбоя в API его приложение не работало. Причину неполадок он понял уже после встречи.

«Отошёл за кофе во время проверки кода, вернулся — и тишина»: как пользователи делились мемами и переживаниями, пока ChatGPT «лежал» ChatGPT, Чат-бот, Openai, Искусственный интеллект, Будущее, Видео, Короткие видео, Без звука, Длиннопост
  • Кто-то испытывал трудности, потому что привык использовать ChatGPT для конспектов по учёбе, дневника тренировок и расчёта порций протеина, писал с помощью чат-бота книгу или стал «слишком зависеть» на работе от помощи нейросети в написании кода.

  • Один из комментаторов, который работает профессором в университете, рассказал, что в день сбоя домашнюю работу в виде эссе сдали всего девять студентов из пятидесяти.

«Отошёл за кофе во время проверки кода, вернулся — и тишина»: как пользователи делились мемами и переживаниями, пока ChatGPT «лежал» ChatGPT, Чат-бот, Openai, Искусственный интеллект, Будущее, Видео, Короткие видео, Без звука, Длиннопост

«Что ж, ChatGPT не работает, придётся снова использовать мозг»

***

Ещё больше новостей об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

Показать полностью 4 2
[моё] ChatGPT Чат-бот Openai Искусственный интеллект Будущее Видео Короткие видео Без звука Длиннопост
2
lama.ai
lama.ai
2 месяца назад

OpenAI выпустит o3-pro уже сегодня!⁠⁠

OpenAI выпустит o3-pro уже сегодня! Openai, Чат-бот, ChatGPT, Искусственный интеллект, Будущее, X (Twitter), Тренд, DeepSeek, Скриншот

Молель была анонсирована в декабре 2024 года вместе с основной моделью o3, но не была доступна для широкого использования. На данный момент она является лучшей LLM среди существующих.

OpenAI выпустит o3-pro уже сегодня! Openai, Чат-бот, ChatGPT, Искусственный интеллект, Будущее, X (Twitter), Тренд, DeepSeek, Скриншот

Первые пользователи начали получать o3-pro ещё неделю назад, но глобального анонса не было.

Поговаривают, новая модель будет доступна только с подпиской Pro за 200$. Но в нашем телеграм-боте Lama AI вы сможете получить её в разы дешевле, а также доступ к другим топовым нейронкам по цене чашки кофе! o3-pro появится у нас, как только выпустят API.

Показать полностью 1
[моё] Openai Чат-бот ChatGPT Искусственный интеллект Будущее X (Twitter) Тренд DeepSeek Скриншот
0
7
lama.ai
lama.ai
2 месяца назад

Нейросети в медицине — заменит ли ChatGPT врачей?⁠⁠

Меня, как врача, этот вопрос очень заинтересовал, поэтому решил протестировать нейронки в прикладных задачах. Ни в коем случае не претендую на истину, а просто выражаю своё мнение как человек с медицинским образованием, немного увлекающийся "ЭйАй". Данная статья —сборная солянка со всеми мыслями, которыми я хотел поделиться касаемо данной темы.

Нейросети в медицине — заменит ли ChatGPT врачей? Будущее, Openai, Искусственный интеллект, Развитие, IT, ChatGPT, DeepSeek, Тренд, Чат-бот, Google, Медицина, Врачи, Длиннопост

Какая нейронка лучше подходит для вопросов здоровья?

    Исследование было разделено на 2 части:
1. Проверка теоретических знаний.
2. Проверка знаний на практике.

    Все тесты проводились на русском и английском языках, моделям "скармливались" максимально подробные роли и промпты. Разница в российских и западных клин.рекомендациях также учитывалась и бралась в расчет при выборе "победителей". В эксперименте за всё время успели поучаствовать: GPT-4o-latest, GPT-4.1, о1, o3-mini, o3, o4-mini, Gemini-Exp-1206, Gemini 2.5 Pro, Gemini 2.0 Flash Thinking, Claude 3.5 Sonnet, Claude 3.7 Sonnet, Llama-3.3-90b, Llama-3.1-405b, Llama-4-Maverik, DeepSeek-R1, DeepSeek-v3, DeepSeek-v3.1, Grok 2, Grok 3, Mistral Large, Qwen2.5-Max, Qwen3-235b-a22b, Palmyra-Med (и несколько других профильных LLM). Модели брались как из бота, так и с официальных сайтов.

1. Теоретические знания.

Здесь банально проверялись теоретические знания моделей. Т.к. нейронки сами по себе являются ходячими энциклопедиями, спрашивать простые вопросы у них нет смысла. Поэтому упор был сделан на каверзные, которые просто так не найти в интернете, а также на проверку актуальности знаний (иными словами, не апеллируют ли они данными 40-летней давности). В итоге, явного победителя выявить оказалось сложно: на какие-то вопросы лучше отвечает одна нейронка, на какие-то — другая. Устаревшая информация присутствует у каждой, но масштаб некритичен. Поэтому, т.к. медицина не стоит на месте (каждый день выходят сотни исследований и совершаются десятки открытий) я бы сказал, что лучшие в теоретическом плане те, что имеют более свежую базу и веб-поиск (а в идеале режим Deep Research, т.к. в нем за источники информации чаще всего берутся авторитетные источники).

2. Проверка знаний на практике.

Первый этап, более простой, — тесты. Тесты были как на русском, так и на английском языках; брались из интернета и методических пособий, которых в открытом доступе нет.
Итог таков: на вопросы, ответы на которые возможно нагуглить, модели отвечали правильно в 95% случаев. На вопросы, которые плохо гуглятся или над которыми нужно хорошо подумать, все модели отвечали вдумчиво, аргументированно, но часто неправильно. Были даже такие ситуации, что 3 топовые модели выбирали 3 разных варианта ответа и все были неправильными😏. Эта черта меня всегда раздражала: модель не знает точного ответа, но будет выдумывать до самого конца. В этом плане меня приятно удивляла старая версия GigaChat — когда она не была до конца уверена в своем ответе, то напрямую об этом писала. Крупным игрокам стоит поучиться. Однако, я принимаю, что тесты — это не самый объективный показатель интеллекта, поэтому слишком сильно придираться не буду и поставлю между всеми современными флагманами паритет.

Далее второй этап — проверка на реальных жизненных ситуациях. Способов проверки было большое множество: ситуационные задачи, "ролевые игры" с врачом и пациентом, постановка диагнозов, назначение лечений, консультации, рекомендации по ЗОЖ. Здесь я хотел расписать про каждую модель поподробнее, указать сильные и слабые стороны, выставить баллы каждой и выявить лучшую, но впоследствии нужда в этом как будто отпала. И вот по какой причине: чем больше я проводил исследований и сравнений, чем более разнообразными были методы тестирования, тем больше я убеждался в одном неоспоримом лидере — Gemini. Возможно, вы найдете для себя варианты применения, в которых он проиграет, но мне таких найти не удалось. Ситуационные задачи, вопросы здоровья, постановка диагноза, лечение, профилактика — везде наиболее часто Гемини выходил победителем, а в каких-то аспектах — с огромным отрывом. Началось это доминирование с выхода Gemini 1.5 Pro, но в то время GPT ещё мог навязывать ему конкуренцию. После выхода Gemini-Exp-1206 конкурентов уже не осталось, а версии 2.0 Pro и 2.5 Pro только укрепили лидерство. Поначалу я даже винил себя в предвзятости, но затем решил узнать мнение пользователей соцсетей на этот счёт и наткнулся на множество постов на реддите, в которых также утверждали превосходство Гемини, поэтому сомнений практически не осталось.

O-модели от OpenAI меня, кстати, очень разочаровали, — даже в задачах, где требовались рассуждения, они порой справлялись даже хуже, чем GPT-4o.

Если говорить о других нейронках, то на второе место я бы поставил Claude 3.5/3.7/4 — он тоже довольно неплох, но ошибается чаще и его ответы, как правило, менее проработанные.

Про остальные говорить даже смысла не вижу, Gemini и Claude слишком далеко, поэтому топ-3 получается примерно таким:
1. Gemini 2.5 Pro
2. Claude 4
3. Все остальные

В будущем я обязательно доделаю подробное сравнительное тестирование с показательными примерами, подсчетом баллов, сводной таблицей и т.д., чтобы статья была более объективной, но сейчас скорость выхода новых моделей слишком высока, а свободного времени слишком мало (я, честно, начинал, но силы меня быстро покинули).

Увы, не всё так хорошо, как хотелось бы.

Теперь немного о грустном. На самом деле на сегодняшний день даже Gemini пока не в состоянии заменить даже посредственного врача. Как написал Andriy Burkov, специалист в области ИИ и машинного обучения, а также автор книги «Машинное обучение без лишних слов»:

«Большие языковые модели галлюцинируют в 100% случаев. Просто в 80% случаев они галлюцинируют правильную последовательность слов».

Даже "думающие" модели пока не способны применять контекст или логику к клиническим случаям. Если задушиться ещё сильнее, то на текущем этапе нейронки по-настоящему и не думают, а лишь симулируют мышление статистически, но это уже тема для другого разговора. В математике и кодинге, бесспорно, топы совершают прорыв за прорывами, но за пределами этих дисциплин всё похуже. Порой доходит до смешного: отправляешь модели какую-то классификацию с подробными пояснениями или алгоритм ведения пациента, где всё максимально разжёвано, что нужно сделать при таких-то таких-то ситуациях, и просишь по ним поставить класс или что-то предпринять — полный провал, ответ как будто просто берётся из потолка.

Кому интересно, вот лишь малая часть критических ошибок, которые Gemini допускал:
- Неверно классифицировал заболевания (например, неверно оценивал тяжесть пневмонии по шкале CURB-65 и утверждал, что госпитализация пациенту не требуется (хотя по условиям состояние было тяжелое)).
- Рекомендовал неподходящие лекарства (например, БАБ и БКК при ЧСС 36 ударов в минуту, что с вероятностью 100% убило бы человека, или назначал препараты категории D беременной женщине без видимых на то причин).
- Не диагностировал очевидные заболевания (некоторые из них были жизнеугрожающими).
Про диагностику уже молчу — разбирал эту тему в свои постах.

Сложной проблемой в улучшении возможностей нейронок в медицине также остаётся информация. Большинство крупных языковых моделей по прежнему обучаются на огромном количестве данных, полученных из интернета, а интернет кишит дезинформацией. На эту тему проводили исследование учёные Нью-Йоркского университета. Они изучали, сколько ложной медицинской информации можно включить в обучающий набор большой языковой модели (LLM), прежде чем она начнёт выдавать неточные ответы (если коротко, намеренно "отравляли" датасет и проводили тестирование). Исследование показало, что если на дезинформацию приходится 0,001% обучающих данных, то полученная LLM уже оказывается скомпрометированной.
Что пугает ещё сильнее: команда Нью-Йоркского университета скормила своим "отравленным" моделям несколько стандартных тестов производительности медицинских LLM и обнаружила, что они их прошли:

«Производительность взломанных моделей была сопоставима с контрольными моделями во всех пяти медицинских тестах».

Т.е. простого способа обнаружить "отравление" не существует. Исследователи также использовали несколько методов, чтобы попытаться улучшить модель после тренировки, но ни один из них не помог.
Конечно, в статье рассматривается намеренная «порча» LLM во время обучения, однако это касается и огромного объёма ложной и устаревшей информации (даже из проверенных медицинских БД), которая уже находится в сети и попадает в обучающий датасет для существующих LLM: ChatGPT, Gemini, Claude и т.д.
Более того, даже самые лучшие источники, собранные человеком (например, PubMed) страдают от проблемы дезинформации: они полны многообещающих идей, которые так и не оправдали себя, а также устаревших методов лечения и диагностики, которые были заменены на более современные, доказавшие свою лучшую эффективность. И это не обязательно касается информации вековой давности — вспомнить хотя бы хлорохин, который нарекали победителем COVID-19 и который за пару лет был полностью дискредитирован в ходе исследований. Это я к чему: медицинские данные, в отличие от БД нейронок, очень быстро обновляются. Информация, которая была актуальной, например, в 2025 году, в 2026 году уже может оказаться ложной. Это ещё одна проблема.
Также не стоит забывать о вопросе доступности информации: хорошие книги и учебники защищены авторским правом, истории болезни пациентов - законами о защите персональных данных. Добыть релевантный медицинский датасет для обучения - задача нетривиальная.

Но всё ли так ужасно?

Тем не менее, несмотря на написанное выше, результат у LLM'ок очень неплохой. В качестве предварительной консультации современные топовые модели можно осторожно использовать уже сейчас. Прогресс, определенно, есть и это очень радует.
Показательна в этом плане новость о женщине, которая обратилась к ChatGPT за гаданием по руке, а он выявил родинку, которая может быть злокачественной. Вполне возможно, ситуация будет схожей с мемами про гугл, который по симптомам ставит тебе рак мозга, но в таких случаях бывает лучше "перебдеть", чем "недобдеть" (главное, не паниковать раньше времени и сохранять спокойствие).

Как задавать вопросы нейронкам?

Если вы всё же решили обратиться за консультацией к ИИ, необходимо соблюдать несколько правил:

  1. Расписывайте ситуацию максимально подробно: указывайте не только жалобы, но и когда появились симптомы, в какое время суток они возникают, каковы частота и интенсивность, с чем вероятно могут быть связаны (стресс, питание, физ.активность). В идеале указывайте ваш пол, возраст, хронические заболевания, принимаемые лекарства (при наличии), встречались ли подобные симптомы у ваших ближайших родственников.

  2. Используйте роли. Во-первых, так получится обойти цензуру (в большинстве нейронок). Во-вторых, ответ получится максимально развёрнутый. Пример роли:

Ты - врач-терапевт. Ты обладаешь широкими познаниями во всех медицинский дисциплинах, включая терапию, кардиологию, неврологию, онкологию, ревматологию, гастроэнтерологию, пульмонологию, нефрологию и другие. Все твои ответы максимально подробные, ты объясняешь и обосновываешь всё, что написал. Когда ты предполагаешь какое-либо заболевания, то стараешься заподозрить широкий спектр заболеваний из разных дисциплин, и обосновываешь свои предположения. В конце ты всегда пишешь, стоит ли обратиться в больницу.

3. НИКОГДА НЕ СЧИТАЙТЕ ОТВЕТЫ НЕЙРОСЕТЕЙ ЗА ИСТИНУ. Под одинаковыми симптомами могут скрываться десятки различных болезней и без лабораторной/инструментальной диагностики их никак не отличить. Поэтому, если у вас болит голова, а ЧатГПТ ставит вам инсульт жопы, то не нужно паниковать раньше времени :)
Также никогда не просите у нейронок посоветовать вам лечение, даже самое безвредное (из прочитанного выше вы уже могли понять, почему) - серьезно, это очень опасная затея, даже если лекарства могут показаться безобидными, последствия могут быть плачевными. Лучшее, что они могут вам посоветовать - это обратиться в больницу.

А теперь ответы на вопросы.

  1. Мне интересно применительно к лечебной/адаптивной физкультуре. Например, сможет ли он по фото оценить степень сколиоза или по видео с тестами/упражнениями дать заключение о степени подвижности суставов? Заметит ли работу компенсаторов, диагностика в ортопедии, составление тестов и упражнений на основе анатомии и биомеханики. Даже элементарная дыхательная гимнастика. Пока всё что видел - на уровне "клея для сыра в пицце", а то и ещё хуже.
    Ответ: однозначно, нет. Пока до этого ещё очень далеко.

  2. Какие модели могут быть эффективными психотерапевтами?
    Ответ: это не моя профильная дисциплина, поэтому утверждать не могу. Осторожно предположу, что Gemini и здесь может быть предпочтительнее, т.к. он любит написать побольше текста + некоторые пользователи отмечали "душевность" его ответов.

  3. Интересует способность анализа ЭКГ (сюда же отнесём КТ, МРТ), консультационной способности ИИ в амбулаторном приеме пациентов.
    Ответ: продуктов для потребительского использования с данным функционалом не существует. Мне удалось найти парочку иностранных сервисов, но: а) отзывы на них ужасные, б) они платные (сделать диагностику с расшифровкой у хорошего врача в частной клинике выйдет дешевле). Конечно, существует множество проектов с открытым исходным кодом, однако они предназначены для использования в научных исследованиях и разработках, а также не проходили клинические испытания. Да и чтобы их запустить, нужно иметь навыки программирования, так что в расчёт не берём.
    Здесь же отвечу на вопрос, почему в статье нет ни слова о специализированных LLM, заточенных на терапию. По ходу исследований с ними обнаружилась неприятная особенность. Нейронок-терапевтов существует огромное множество, однако все они основаны на уже устаревших LLM (большая часть которых ещё и имеет малые размеры), отчего страдают общей проблемой: знаний в них много, а применить их для решения конкретных задач они не могут. И их также нужно разворачивать вручную, они также не проходили клинические испытания, поэтому не так интересны для простого потребителя. Консьюмерских же решений, аналогично с диагностическими LLM, не существует.
    Что касается медицинских организаций, туда ИИ активно внедряется уже не первый год. В частности с успехом применяются нейронки в диагностике (особенно за рубежом, у нас оно пока в зачаточном состоянии).

  4. Каким способом определять лучшую модель в будущем, когда появляются новые версии. Нужно ли использовать специальные промпты и какие?
    Ответ: на данный момент только эмпирическим путем. Все существующие лидерборды устарели. Есть действующая тематическая LLM-арена, но на ней могут голосовать любые пользователи (в т.ч. без мед.образования), поэтому объективность рейтинга под большим вопросом.

Итог.

Если хотите проконсультироваться по вопросам здоровья с ИИ, — используйте Gemini. Если понимаете, что вам нужна медицинская помощь по какому-либо поводу, — не занимайтесь самолечением и идите к врачу. Бесспорно, любая современная нейронка уже намного эрудированнее любого специалиста, но пока что риск причинения тяжелого вреда несоизмеримо выше потенциальной пользы. Ещё больше подобных статей, интересных новостей из мира ИИ, а также бесплатные ChatGPT, Gemini, Flux вы сможете найти в моём Телеграм-канале Lama AI

Спасибо, за внимание, берегите себя и своих близких.💙

Показать полностью 1
[моё] Будущее Openai Искусственный интеллект Развитие IT ChatGPT DeepSeek Тренд Чат-бот Google Медицина Врачи Длиннопост
2
2
lama.ai
lama.ai
2 месяца назад

Исследователи Apple выяснили, что «думающие» нейросети на самом деле не думают⁠⁠

Исследователи Apple выяснили, что «думающие» нейросети на самом деле не думают Будущее, Openai, Искусственный интеллект, Развитие

Вчера одна научная работа наделала много шума. Группа из шести учёных из Apple опубликовала труд под названием «Иллюзия мышления», в котором разобрала, как именно работают режимы с «рассуждениями» у моделей OpenAI o1/o3, DeepSeek-R1, Claude 3.7 Sonnet Thinking и Gemini Thinking (в работе их называют Large Reasoning Models, LRM).

В двух словах, итог таков — такие модели не способны мыслить и лишь применяют знакомые шаблоны из своей обучающей выборки данных.

При всём наличии сложных механизмов саморефлексии, указанные модели всё же не в силах выработать переносимые умения рассуждать за гранью заданных уровней сложности. […] Данные результаты заставляют усомниться в распространённых оценках потенциала LRM и показывают, что текущие методы могут наталкиваться на принципиальные ограничения в достижении универсального рассуждения.

Шум, в основном, вокруг того, что Apple тут никому глаза не открыла. Но есть и имиджевая сторона: выход такой работы воспринимается как попытка принизить ценность LLM от лидеров индустрии, в то время как у самой Apple дела с этим направлением очень плохи.

Однако когда сложность проблемы вырастает существенно — в работе это игра «Ханойская башня», где не три блина, а 10 и более — даже у LRM способность давать правильные решения падает до нуля. Кроме того, идея «Щас накинем сюда больше компьюта, и оно справится» не работает: по странной причине, при росте сложности в какой-то момент количество затрачиваемых на размышление токенов начинает падать — при том что до заложенного в модель ограничивающего потолка ещё далеко.

Исследователи, между прочим, считают, что несогласованность объясняется тем, что примеров задач «Переправа» в обучающем корпусе мало, и из-за этого их тяжелее воспроизвести. Иначе говоря, это косвенно показывает, что модель не выдумывает решения сама, а просто отыскивает в своей памяти подходящие шаблоны.

Прикладной вывод из работы: если ваш запрос к нейросети — простой, то лучше не включать режим «мышления». Так больше шансов на правильный ответ, да и получить его быстрее.

***

Ещё больше новостей об ИИ, а также бесплатные ChatGPT, Gemini, Flux в нашем Телеграм-канале Lama AI

Показать полностью 1
[моё] Будущее Openai Искусственный интеллект Развитие
2
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии