Ответ на пост «Суперкомпьютеры, мозговые импланты и ИИ, который думает сам. Мы точно готовы?»
Вот еще вариант.
Сначала, в момент обучения - в модели образуются кластеры токенов соотвествующие измерениям. Каждое измерение - грубо говоря, смысловое пространство, токены в него группируются по частоте совместного использования в человеческих текстах, (как минимум по этому но и не только).
Скажем - на этом этапе модель уже позволяет различать добро и зло в два разных измерения, или вообще - все что угодно из того что содержалось во входных данных.
Измерений очень много. Их состав и количество могут быть ограничены контекстом. Например - только перевод текста.
В этом пространстве смыслов высокой размерности применяется математический оператор сгенерированый по довольно сложной цепочке преобразований из токенов запроса. Получается N-мерная структура которая сериализуется в текст ответа.
Фактически этот процесс почти идентичен коллапсу волновой функции в ядрах атомов.