Пожалуйста, будьте вежливы! В новостных и политических постах действует Особый порядок размещения постов и комментариев.

Google напортачила при тестировании Gemini

Google напортачила при тестировании Gemini IT, Новости, Нейронные сети, Google, Gemini, ChatGPT, Чат-бот, Искусственный интеллект

Продолжение истории с расистскими нейросетями.

Контекст, Gemini - нейросеть от Google, генерирует странные изображения цветных людей. Например, чернокожие нацисты. Позже функция была отключена.

Бывший президент Google Сергей Брин, ушедший с поста в 2019, вернулся из-за захватывающей траекторией ИИ. В документе о Gemini он указан как “основной участник”.

Брин считает, что неточность возникла из-за отсутствия тщательного тестирования.

Сразу возникает вопрос как они ее обучали, раз на выходе получили это? Или они специально продвигают повестку?

Но Брин отмечает, что любая текстовая модель будет говорить странные вещи. Так же он не совсем понимает, почему Gemini в некоторых случаях демонстрирует предвзятость, поскольку это не входило в намерения компании.

А это вопросы к самой нейросети, потому что она сама создает связи на которых строиться ответ. То есть перед нами черный ящик, который сначала обучается, создает нейроны, а потом на их основе выдает какой-то ответ.

Мы не знаем точно, что выдаст нейронка, можем только предположить. И gpt, и bing грешили бредом в ответах, но в Gemini это больше всего заметно.

IT News

494 поста3K подписчика

Добавить пост

Правила сообщества

1. Для начала нужно соблюдать правила пикабу! (если не ознакомились то вот вам ссылку - http://pikabu.ru/html.php?id=wtf)

2. Банальные срачи "Что лучше НВИДИА или АМД?" не приветствуются
3. Нашли интересное? Создавайте пост быстрее