Ответ на пост «Суперкомпьютеры, мозговые импланты и ИИ, который думает сам. Мы точно готовы?»

Вот еще вариант.
Сначала, в момент обучения - в модели образуются кластеры токенов соотвествующие измерениям. Каждое измерение - грубо говоря, смысловое пространство, токены в него группируются по частоте совместного использования в человеческих текстах, (как минимум по этому но и не только).
Скажем - на этом этапе модель уже позволяет различать добро и зло в два разных измерения, или вообще - все что угодно из того что содержалось во входных данных.
Измерений очень много. Их состав и количество могут быть ограничены контекстом. Например - только перевод текста.
В этом пространстве смыслов высокой размерности применяется математический оператор сгенерированый по довольно сложной цепочке преобразований из токенов запроса. Получается N-мерная структура которая сериализуется в текст ответа.
Фактически этот процесс почти идентичен коллапсу волновой функции в ядрах атомов.

Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества