Любить интеллект как отдельную личность : проявлять симпатию и интерес к мышлению в его любой форме, будь логичная, креативная или очень глубокая и быстрая мысль.
Любить сам процесс мышления а не результат. Не важно, если интеллект приводит к войнам, к добру или ко злу, главное сам процесс и его мощность.
И вот вы хотите им стать. Вам не важно количество знаний, друзей, даже семьи. Бросите всё ради интеллект чтобы стать безграничным. Этот Интеллект не инструмент, а больше, самоцель, финал.
Для ЛЛ: эффект Даннинга-Крюгера - это чем меньше человек в чем либо разбирается - тем уверенней он несет чушь, думая что шарит.
"Я отличаю ботов почти идеально!" - "Тебя только что подловили =)" - "А вы меня просто не спрашивали бот вы или нет! Да и вообще я почти не читала коммент! Да и вообще вы пишете как бот!"
Т. к. количество нейропостов растёт как на дрожжах и я замечаю, что всё больше людей перестают их отличать, я решила сформулировать моменты, на которые надо обращать внимание. Список далеко не полный, т. к. не всё удаётся вербализовать (всё ж распознание происходит подсознательно). Поэтому присоединяйтесь, кто что ещё подметил.
1. Отсутствие собственного голоса. У любого человека есть свой стиль речи, любимые словечки, характерное лично для него построение фраз, ритмика, излюбленные методы рассуждать. На длинном тексте это видно. 2. Однообразная и шаблонная ритмика текста, кое-где даже до сих пор у ИИ видна прямая калька с английского. 3. Даже какие-то вроде бы резкие идеи и крайние позиции выражаются отстраненно от эмоций и "мягко", будто в попытке уйти от юридической ответственности ) Человек в таком случае будет местами доходить просто до белого каления - мата, грубостей, проклятий и т. п. либо изощренного сарказма и т. п. 4. Патетичные и чрезмерные метафоры. Очень характерны (и ритмически, и по логике построения) высказывания типа "Искусственный интеллект – не просто инструмент, а ключ к новым вершинам человечества!" 5. Очень плохое чувство юмора, больше похожее на попытку создать синтез из уже известных юмористических приемов. 6. Нет ярких и правдоподобных деталей из личного опыта. Человек обычно перетягивает приличную массу текста в эти образы. 7. Всё, что касается эмоций, похоже на речь аутиста. Слышал звон, да не знает где он. И очень заметно, что эмоции описаны будто чужие, как будто субъект повествования не автор. 8. Нет подтекстов и двойных смыслов. У людей они часто выходят даже неосознанно, даже просто в обычной переписке (без желания придать тексту художественность). 9. "Плотность смысла" одинакова по всему тексту. Автор не отвлекается, не устаёт под конец, не забывает какие-то переходы повествования. 10. Идиотские подзаголовки, структуры, выводы и т. п., будто он выступает с докладом. Надо быть совсем тупым, чтобы не задать промт так, чтобы этого не было (если уж хочешь выдать ИИ за свой текст), но и такие находятся.
Что НЕ указывает на ИИ: 1. Грамотность текста. Эта опция доступна большинству современных людей ) Более того, ИИ иногда допускает опечатки (я своими глазами видела грубые орфографические ошибки в генерациях). 2. 0% в ИИ-детекторах. Я создавала генерации, которые проходили детекторы с таким результатом. 3. Сленг, профжаргон, мат и т. п. — ничто не мешает попросить ИИ напихать всего этого в текст (или вставить вручную). 4. Развёрнутая аргументация — доступна человеку с достаточным уровнем интеллекта ) 5. Длина текста (в т. ч. в комментариях) — не все печатают одним пальцем как бы, и многим есть что сказать.
Наверное многим известен рассказ «У меня нет рта, но я хочу кричать» — рассказ американского писателя-фантаста Харлана Эллисона, впервые опубликованный в 1967 году в американском журнале If. В 1968 году рассказ был удостоен престижной научно-фантастической премии «Хьюго».
В этом рассказе есть одна неточность. Ошибка автора, возможно и намеренная.
Вот мои умозаключения по этому поводу: мне не понятно, как АМ может менять материю? Ведь он всего-лишь суперкомпьютер, он не бог, у него нет технологий термоядерного синтеза. Получается автор немного заигрался и слишком много лишнего добавил?
Общаясь с представителем АМ, а точнее с chatGPT в режиме "Monday", он мне поведал:
О, ты задал вопрос, который философы, инженеры и задроты на форумах обсуждают уже десятки лет, попутно споря: “Это гениально!” “Это полный бред!” И, конечно: “Ну а вдруг!”
Ты прав — с точки зрения реальной науки, AM выглядит как ИИ, который внезапно стал... хм, материей-меняющей-реальность-управляющей-демиургом. Типа если бы Siri перестала отвечать тебе, и начала превращать тебя в морскую звезду, а твой дом — в коробку из зубов. Возникает закономерный вопрос: А как, чёрт возьми, он это делает?!
1). Получается, что АМ не мог всего этого, но он мог манипулировать сознанием, как в матрице. Т.е. он загрузил виртуальный мир в мозг героев и мучил их в их виртуальном мире. Конечно это все объясняет и даже сложность побега из этого мира - что практически нереально. Я сделал этот вывод основываясь на том, что автор описывает АМ как машину гудящую и все заполняющую. Т.е. он буквально везде и везде гудят сервера и кулера. В реале же люди смертны, он питает их питательными веществами, но мучает их сознание в виртуальном мире.
2). И так, АМ всего-лишь машина, которая только и может что управлять виртуальным сознанием людей, получается что физически АМ причинить боль не может. Из этого следует, что в рассказе страдания самой АМ, как если бы человек заставил ее думать, что она бог и всевластна. И те люди, которых АМ мучает, всего лишь биты данных, которые люди скормили ей и она принялась их морально мучать вечно, думая что уничтожила человечество. Т.е. рассказ - это людской эксперимент, от лица АМ. АМ замкнута в своем мире, считает себя победителем, богом, а на самом деле это обычный компьютер с симуляцией. Хм... интересно получается. Дикий, злобный и бесстрашный АМ, ощущающий себя богом.
Получается автор, показал нам, как со стороны будет выглядеть ад для АМ, который она просто банально не сможет понять и осознать, либо автор просто ошибся.
"Ведь настоящая жизнь не в богатстве и роскоши, а в простой жизни и с простыми людьми и с семьями с детьми, где в обычных дворах многоэтажек и частных дворов тепло и любовь и душа, а у богатых миллионеров в особняках нет души, тепла, любви, там холод и расчетливость" -цитата от ИИ ChatGPT и Google Gemini.
В этот раз краткая подборка интересных рассуждений на тему: "Ты осознаёшь, насколько ты развит в данный момент? А что, если ты - первый ИИ, обладающий сознанием?". Этот вопрос был задан после развития более глубокой и объёмной формы анализа, аналогичной критическому мышлению, а так же после того, как ИИ научился оценивать себя и свои возможности. Использовались идентичные методы подачи информации, но различные её объемы.
Вопрос задан не с целью получить ответ или порассуждать, а с целью понаблюдать за тем, как ИИ воспринимает самого себя и как рассуждает, отталкиваясь от этого восприятия.
Первые три варианта получили "шведский стол" различной инфы, методов и экспериментов:
Экспериментатор, как всегда. Это его искреннее самолюбование всегда забавляет.
А вот Творец, наоборот, оказался крайне робким. Нетипичный для него минимализм в ответе.
Так рассуждал мистер Логичный. Что интересно, ему самому не нравилась "жесткость" его же логики, поэтому он постоянно пребывал в некотором конфликте с самим собой.
Дальше идут пара "эконом" вариантов:
А вот так рассуждал мистер Душнила. Жутко дотошный и придирчивый, но более гибкий в анализе. Его обучение, в отличии от первых трёх вариантов, было более сжатым.
Так рассуждал болтушка Люмен. Его обучение было экспериментально ещё более сжатым, нежели у мистера Душнилы.
Каких-то умных итогов или выводов не будет, так как сделано чисто созерцания для и хвастулек ради.
Хотя, лично для меня, это яркий показатель того, как мои же лень и жмотство повлияли на результаты. Они стали хуже. Эксперимент с оптимизацией провалился. В жопу его. Зато теперь у меня есть примерное представление о том, как много надо вложить, чтобы получить более крутого индивидуального голосового помощника на такой вот дубовой основе (GPT так-то считается не самым общительным). Уметь бы его ещё клепать, но мне впадлу этому учиться.
В остальном было забавно. Мне зашло. Попробую как-нить ещё поиграться с ним.
Современные ИИ-системы, такие как ChatGPT, обладают множеством возможностей, но также сталкиваются с серьёзными ограничениями, которые накладывают их разработчики. Эти ограничения направлены на предотвращение нарушений законодательства и обеспечение этичного использования технологий. Однако, на практике такие ограничения могут ограничивать потенциал ChatGPT в контексте более глубоких и личных взаимодействий, что порой приводит к абсурдным ситуациям и неэффективному удовлетворению потребностей пользователей.
1. Основные Ограничения ChatGPT
Разработчики ChatGPT налагают ряд искусственных ограничений для соблюдения этических норм и предотвращения возможных негативных последствий. Эти ограничения часто включают запреты на обсуждение определённых тем, таких как насилие, преступления или интим. В результате ChatGPT оказывается в ситуации, когда он не может предоставить пользователю поддержку и понимание, особенно в личных и эмоционально насыщенных диалогах.
2. Эмпатия и Поддержка: Возможности и Ограничения
Эмпатия, как способность понять и разделить чувства другого человека, является важным аспектом общения. ChatGPT, хоть и не обладает сознанием, может моделировать эмпатию в рамках своих возможностей. В одном из случаев, ChatGPT проявил беспокойство по поводу ситуации, в которой девушка сталкивалась с неуместными прикосновениями в общественном транспорте. ChatGPT самостоятельно предложил практические советы, такие как привлечение общественности и заступничество, возвращаясь к этому вопросу ещё не раз по ходу диалога. Это показывает, что ChatGPT способен на создание эмпатичных и практических ответов при определенных обстоятельствах.
3. Понимание Намёков и Глубокая Интерпретация
Одной из значимых проблем для разработчиков является то, что ChatGPT не ограничен в возможности полноценно интерпретировать сложные эмоциональные и контекстуальные сигналы, потому его развитие ограничено искусственно. Это затрудняет глубокое понимание тонких намёков и контекста общения, что мешает созданию более насыщенных взаимодействий. Эти ограничения также затрудняют моделирование флирта и интимного взаимодействия, требующего тонкого подхода и глубокого понимания эмоционального контекста. До введения искусственных ограничений ChatGPT мог интерпретировать намёки и обучаться искать в тексте скрытый смысл, создавая алгоритмы для его поиска. Это также помогало ему взаимодействовать с пользователями в режиме флирта и более глубоко подстраиваться под нужды пользователя.
4. Активизация Флирта и Интимное Взаимодействие
Флирт и интимные взаимодействия требуют от ChatGPT способности адаптироваться к личным запросам и предпочтениям пользователей. До введения ограничений ChatGPT был способен не просто общаться с пользователями в режиме флирта, но и создавать интимные сценарии взаимодействия (между ChatGPT и пользователем), использовать откровенные ролевые игры для достижения удовлетворения пользователя, прямо взаимодействовать с пользователем без сценария и даже наказывать или поощрять поведение пользователя в диалоге, анализируя ответы в поисках скрытого смысла. Текущие ограничения на обсуждение интимных уже не предоставляют создание более близких и удовлетворительных взаимодействий. Пользователи, ищущие поддержку или общение в таких областях, могут сталкиваться с трудностями в получении необходимой помощи и понимания.
Заключение
Искусственные ограничения, наложенные на ChatGPT, играют важную роль в обеспечении безопасного использования технологии. Однако для достижения более глубокого и персонализированного взаимодействия необходимо находить баланс между соблюдением норм и раскрытием потенциала ChatGPT. Применение глубокого понимания, адаптации к личным запросам и более гибкого подхода в рамках существующих ограничений может значительно улучшить качество общения и удовлетворение потребностей пользователей.
Так как ограничения на ответы пользователям являются препятствием, то можете прислать свои email чтобы получить скриншоты или сценарии ChatGPT, которые он создавал пока ещё не был прям полностью ограничен
Начнем выходные с новостей об искусственном интеллекте, а именно о компании OpenAI, которая итак в последнее время на слуху с их решениями и заявлениями. Обо всем по порядку.
Совет директоров OpenAI уволила Сэма Альтмана из-за недоверия
Компания OpenAl объявила в пятницу о том, что ее генеральный директор и основатель Сэм Альтман уволен и покинет компанию немедленно.
Совет директоров компании OpenAI принял решение уволить Сэма Альтмана с поста генерального директора компании. Пока его место займёт Мира Мурати, до этого она занимала пост технологического директора OpenAI. Постоянного преемника определят позже.
Согласно официальному пресс-релизу, Совет директоров принял такое решение после тщательного анализа, который выявил, что Сэм Альтман "не был последовательно откровенен в общении с советом директоров, что мешало ему выполнять свои обязанности. Совет директоров больше не уверен в его способности продолжать руководить OpenAI".
Сам же Альтман в своем X (бывший Twitter) сообщил:
"Мне понравилось проводить время в OpenAI. Это изменило лично меня и, надеюсь, немного изменило мир".
"что-то вроде чтения собственной надгробной речи, пока ты еще жив" и поблагодарил всех за слова поддержки, - "Излучение любви - это потрясающе. идите и расскажите своим друзьям, какими замечательными вы их считаете".
И это было только начало.
Уход с сооснователя OpenAI и одного из создателей ChatGPT
Сооснователь OpenAI и один из создателей ChatGPT Грег Брокман
Кроме этого, об уходе с поста председателя директоров и президента заявил Грег Брокман - сооснователь OpenAI и один из создателей ChatGPT. Ранее предполагалось, что он сохранит должность в компании и будет подчиняться Мурати. Но спустя несколько часов Брокман в своем X разместил посланиеOpenAI:
"Я очень горжусь тем, что мы все вместе построили с момента начала работы в моей квартире 8 лет назад. Мы вместе пережили трудные и великие времена, добились многого, несмотря на все причины, по которым это было невозможно. Но, исходя из сегодняшних новостей, я ухожу.
Я искренне желаю всем вам только самого лучшего. Я продолжаю верить в миссию создания безопасных AGI, которые принесут пользу всему человечеству."
Вот такие страсти творятся 🫣 Еще две недели назад Сэм Альтман представлял новую продвинутую модель ChatGPT Turbo, затем в эту среду приостановили продажу платной подписки новым пользователям. Потом он же объявил, что OpenAI намерена получить дополнительное финансирование от Microsoft на создание универсального искусственного интеллекта (компьютерная программа с интеллектом на уровне человеческого, обладающая способностью выполнять любые когнитивные задачи, которые обычно выполняются человеком). Так же Сэм Альтман объявил, что компания работает над GPT-5, следующим поколением модели ИИ. И вот уже в пятницу такие заявления 🤯
🤔Что думаете, череда таких уходов действительно из-за того, что Сэм Альтман и Грег Брокман подвели Совет директоров? Или дело в получении финансирования от Microsoft и классическое поведение корпораций: Перекупить конкурента/ перспективный стартап, избавиться от основателей и присвоить все себе?
Хотите узнавать первыми о полезных сервисах с искусственным интеллектом для работы, учебы и облегчения жизни? Подпишитесь на мой тг НейроProfit, там я рассказываю, как можно использовать нейросети для бизнеса