Google напортачила при тестировании Gemini
Продолжение истории с расистскими нейросетями.
Контекст, Gemini - нейросеть от Google, генерирует странные изображения цветных людей. Например, чернокожие нацисты. Позже функция была отключена.
Бывший президент Google Сергей Брин, ушедший с поста в 2019, вернулся из-за захватывающей траекторией ИИ. В документе о Gemini он указан как “основной участник”.
Брин считает, что неточность возникла из-за отсутствия тщательного тестирования.
Сразу возникает вопрос как они ее обучали, раз на выходе получили это? Или они специально продвигают повестку?
Но Брин отмечает, что любая текстовая модель будет говорить странные вещи. Так же он не совсем понимает, почему Gemini в некоторых случаях демонстрирует предвзятость, поскольку это не входило в намерения компании.
А это вопросы к самой нейросети, потому что она сама создает связи на которых строиться ответ. То есть перед нами черный ящик, который сначала обучается, создает нейроны, а потом на их основе выдает какой-то ответ.
Мы не знаем точно, что выдаст нейронка, можем только предположить. И gpt, и bing грешили бредом в ответах, но в Gemini это больше всего заметно.