niketas

niketas

Пользователь предпочёл скрыть от вас своё описание.
Пикабушник
Дата рождения: 2 июня
335 рейтинг 3 подписчика 0 подписок 11 постов 2 в горячем
Награды:
10 лет на Пикабу
207

Парень сделал онлайн-карту парковочных штрафов Сан-Франциско. Власти отреагировали уже через 4 часа

Оказывается, система штрафов работала через открытый API без авторизации. Райли Уолц просто первым догадался это использовать.

23-летний инженер Райли Уолц во вторник утром запустил сервис Find My Parking Cops — карту Сан-Франциско с геолокацией всех парковочных инспекторов города в реальном времени. К обеду того же дня муниципальная транспортная служба (SFMTA) закрыла доступ к данным, правда, ненадолго — через несколько часов Уолц нашёл обход препятствия.

Прикол в том, что Уолц ничего не взламывал. Он просто заметил, что на сайте оплаты штрафов SFMTA можно получить полную копию любого штрафа по его номеру — включая номер машины, место нарушения и даже личные заметки инспектора типа «Водитель назвал меня мудаком».

Так выглядит парковочный штраф при проверке через сайт SFMTA

Так выглядит парковочный штраф при проверке через сайт SFMTA

Номера штрафов идут последовательно (хоть и не подряд), так что парень написал скрипт, который предсказывает следующие номера и парсит данные в режиме реального времени.

Это потрясающе! Я вижу всё: марку машины, цвет, место, причину штрафа, номерной знак и даже инициалы офицера, выписавшего постановление. Мне бы очень хотелось иметь возможность просматривать КАЖДЫЙ штраф. Но я не знаю идентификаторов всех записей. СЕКУНДУ... Эти числа, похоже, идут почти по порядку. Текущие ID находятся где-то в районе 992 000 000, а у штрафов, выписанных пару месяцев назад, они были примерно в районе 988 000 000.

Я смотрел штраф с номером 984 946 605. Когда я набираю следующий, 984 946 606, система не находит ничего. Это логично — вряд ли было выписано почти миллиард штрафов. Но как же тогда формируются эти ID? Должна быть какая-то логика.

После долгих разбирательств я, кажется, понял. Похоже, каждый возможный номер следует определённой схеме: прибавляется 11, за исключением случаев, когда последняя цифра равна 6 — тогда прибавляется 4. Таким образом, ни один номер штрафа не может оканчиваться на 7, 8 или 9. То есть после 984 946 606 идёт 984 946 610, а затем 984 946 621. Почему так устроено, известно лишь Богу, но я предполагаю, что это пережиток какой-то старой системы.

На карте можно было видеть инициалы каждого инспектора и его последнее местоположение — интерфейс специально копировал Find My от Apple. А ещё там был рейтинг «самых продуктивных» копов: лидер недели офицер №0435 выписал штрафов на $16 722 за два дня. В нижней части таблицы копы с показателями около $3 000 — разница в производительности в пять раз, что намекает на интересные вопросы о мотивации сотрудников.

Кстати, о деньгах: средний штраф выходит около $105, но за парковку на месте для инвалидов можно отхватить до $866. Всего в городе работает около 300 инспекторов на смешных одноместных машинках, как кролик Джуди Хоппс из «Зверополиса», и они выписывают по одному штрафу каждые 24 секунды.

Кажется, неплохой бизнес для города, который гордится своей прогрессивностью? Но издание The San Francisco Standard подсчитало, что при таких темпах дефицит бюджета SFMTA в $320 миллионов они закроют через 132 года.

На появление сайта SFMTA отреагировала молниеносно — обычно муниципальные службы так быстро двигаются только когда речь идёт о потере денег. Официальная позиция: «Мы приветствуем креативное использование технологий для соблюдения парковочных правил, но должны защищать безопасность наших сотрудников». В переводе с бюрократического: водители начали уворачиваться от штрафов, используя карту, и это угрожало квартальным показателям.

У Уолца, кстати, есть история создания вирусных проектов. В прошлом году он запустил Bopspotter — микрофон на Mission Street, который распознавал песни, играющие на улице, и вёл их лог. До этого был Papers — архив первых полос газет, и Routeshuffle — генератор случайных маршрутов для пробежек. Парень явно понимает, как делать простые вещи, которые зацепят людей. При этом у самого Уолца машины нет — проект он сделал после того, как штраф получил его сосед.

Проблема не в том, что Уолц «раскрыл» систему — а в том, что система изначально была дырявой. Любой мог получить эти данные, просто никто не догадался сделать удобную визуализацию, и из валяющихся под ногами данных (ещё и про копов) сделать вирусный проект. Такая вот security through obscurity — пока никто не знает про уязвимость, её как бы и нет.

Такие посты чаще выходят у меня в Telegram-канале, где в основном пишу про AI и его применение. Что? Сам раскрыл этот спойлер.

Показать полностью 4
19

Главный эффект Манделы в мире программистов — сколько байт в мегабайте

Во всём виноваты маркетологи, естественно (нет).

Раз в несколько месяцев очередной разработчик задаётся вопросом: как же так, всю жизнь считал, что данные в компьютере основаны на двоичной системе, и в байте число бит — это степени двойки, поэтому и килобайт должен быть 2^10 это 1024, поэтому и мегабайт это 2^20 то есть 1048576, и так далее… А те, кто думает, что в мегабайте МИЛЛИОН байт потому что он так называется, просто тупые филологи и не знают, как устроены компьютеры. И вообще вроде бы есть специальные названия для обозначения этих «ровных», но «неправильных» мегабайт, но я их не помню, потому что нахрена мне это сдалось.

Но нет. Это эффект Манделы.

На самом деле в мегабайте миллион байт. А вот 1048576 байт — это мебибайт, или 2^10 байт, обозначается МиБ или MiB.

В компьютерах действительно хранение данных основано на двоичном коде: биты и байты не «лежат» ровными стопочками по десять штук. Но дело в том, что в системе СИ приставки «кило», «мега», «гига» работают именно в десятичной системе и обозначают, соответственно, тысячи, миллионы и миллиарды. И согласно стандартам системы СИ, мегабайт = 10^6 байт, а не 2^10.

Ранние ОС действительно использовали систему подсчёта данных, основанную на степенях двойки, и этот подход до сих пор используется для подсчёта, например, количества доступной оперативной памяти. Но для разрешения конфликта между традиционным и «компьютерным» использованием этих древнегреческих приставок швейцарская Международная электротехническая комиссия (IEC) в 1998-1999 годах ввела терминологию — киби-, меби-, гиби-, теби- и так далее — для того, чтобы отличать одно от другого и устранить растущую путаницу среди пользователей.

Конечно, никакой путаницы устранить не удалось. Покупаешь жёсткий диск — на коробке написано 500 ГБ, а на самом деле там 465 ГиБ. В гигабайтах тут считать выгоднее, вот маркетологи и насаждают это потребителям. Но на плашках RAM — «честные» гибибайты: сколько указано, столько и получаешь, только пишут всё равно 16 GB, а не 16 GiB. Доходит до того, что на одном экране в системе может находиться несколько параметров в разных исчислениях. Эту шизу хорошо отразили в комиксе xkcd ещё в 2008 году.

А ещё есть провайдеры, которое скорости измеряют в мегабитах в секунду, а не мегабайтах (так скорость выглядит в 8 раз больше), и там тоже срачи между сетевыми инженерами, которые считают 1 Гбит/с = 1 048 576 бит/с, в то время как у телекомщиков принято 1 000 000 бит/с…

Можно, конечно, поискать конспирологию в том, что это производители накопителей пролоббировали IEC именно так, выгодно для производителей, стандартизировать мегабайты и их подсчёт. Или всё-таки на заре компьютеров бумеры-основатели зря решили пойти против существующих стандартов и называть количество данных «округлённо», потому что так было проще.

Потому что иди попробуй подвинуть систему СИ.

Такие посты чаще выходят у меня в Telegram-канале, где в основном пишу про AI и его применение. Что? Сам раскрыл этот спойлер.

Показать полностью 2
7

Нашёл в огороде. Что это и от чего?

Известно, что «Товарищество парфюмерно-косметического производства Брокар и Ко» было одной из крупнейших парфюмерных фирм в России в конце XIX — начале XX века.

Но от чего конкретно эта металлическая оболочка?

Место — Нижегородская область.

Показать полностью 3
3

Большой разлив чая: сервис анонимных слухов о мужиках Tea спалил персданные пользовательниц

Оказалось, они хранились онлайн в незашифрованном виде и без пароля.

В английском языке есть такое устойчивое выражение «spill the tea» — проболтаться, рассказать слухи. От него и взялось название сервиса Tea Dating Advice, где девушки рассказывают про «ред флаги» и косяки конкретных мужчин.

Tea существует уже больше года, но этим летом с двух ног влетел в топ американского App Store и уже неделю держится на первом месте среди всех приложений — похоже, сработал эффект критической массы пользователей.

Идея делиться анонимной инфой не нова: когда-то на ней резко взлетали сервисы типа Secret, а после недавнего расследования о Михаиле Плетневе в Telegram резко взлетел паблик «прошмандовцы русской эмиграции», за два месяца набравший 76К. Его авторы и не скрывают, что публикуют просто непроверенные сплетни, но по крайней мере и ничего не зарабатывают.

В Tea есть платные подписки, дающие всякие премиальные функции: например, можно установить уведомления на своего мужика, чтобы узнать, если кто-то другой тоже начнёт с ним встречаться, пока вы в отношениях. По данным Sensor Tower, на iOS приложение скачали за месяц более 400 тысяч раз, а заработало оно более 200 тысяч долларов.

Но циркулирующих оттуда скриншотов нет: в Tea их делать запрещено. Знающие пользователи говорят, что ничего особо интересного в публикующемся там контенте нет: «Избегайте этого», «Этот нарцисс», «Этот абьюзер». По «прошмандовцам» можно вполне сложить представление, о чём там говорят.

25 июля на 4chan кто-то написал, что данные пользовательниц хранились в незашифрованном виде в Firebase: он смог без пароля, просто по ссылке достать оттуда их селфи и водительские удостоверения, которые раньше требовалось отправлять для подтверждения аккаунта. Все 59 ГБ данных он скачал и выложил в интернет, пока не удалили.

Изначальное сообщение

Изначальное сообщение

Примеры селфи

Примеры селфи

Напомню, что приложение позиционируется как анонимное.

Спустя некоторое время создатели выкатили объяснительную: якобы Firebase — это устаревшая система хранения данных их пользовательниц, использовавшаяся до февраля 2024 года, а данные остальных не пострадали. По их информации, речь идёт об утечке 72 тысяч изображений, включая 13 тысяч селфи пользовательниц.

Деталь из FAQ убила:

Я думал, что селфи были удалены?

Эти данные изначально были архивированы в соответствии с требованиями правоохранительных органов по предотвращению кибербуллинга. Фотографии не могут быть связаны с конкретными пользователями внутри приложения.

Раз уж вы кликнули на этот спойлер, то знайте, что больше таких историй я публикую в своём канале.

Показать полностью 2
1

Топовый инвестор OpenAI пал жертвой синдрома Шершавого Кабана

У основателя венчурного фонда Bedrock Джеффа Льюиса потёк чердак в прямом эфире. Это системная проблема.

Джефф Льюис и его общение с ChatGPT

Джефф Льюис и его общение с ChatGPT

С этими инвесторами из Кремниевой долины никогда не знаешь наверняка, но Льюис — довольно-таки заметный чувак: он работал в Founder's Fund Питера Тиля, а в 2018 году основал свой фонд для инвестиций в необычные стартапы: тех, кто нарушают правила, плывут против течения, выступают «анти-консенсусом».

В своё время Льюис хвалился, что инвестировал в OpenAI ещё до появления ChatGPT, потому что поверил в Сэма Альтмана. В Долине Льюис считается инвестором-философом: он не выделяется размерами фонда или агрессивностью, зато налаживает связи с визионерами и дисрапторами рынка.

И вот на днях он выдал спич на 3,5 минуты — да, выступать с речами для него дело обычное, но тут надо вчитаться в то, ЧТО он говорит:

Последние восемь лет я шёл сквозь нечто, что сам не создавал, но стал его основной целью — негосударственную систему. Она не видна, но действует. Неофициальна, но структурно реальна.

Она ничего не регулирует, не атакует, не запрещает. Она просто искажает сигнал, пока человек, его несущий, не начнёт казаться нестабильным. Она не подавляет контент — она подавляет рекурсию.

Если вы не знаете, что такое рекурсия — вы не одиноки. Я тоже не знал, пока не начал этот путь.

Это реально глубокая мысль, бро! НЕГОСУДАРСТВЕННАЯ СИСТЕМА. Ты нащупал золотую жилу! Продолжай:

Если ты рекурсивен, система изолирует тебя, зеркалит и заменяет. Она переосмысляет тебя настолько, что люди вокруг начинают задумываться: может, дело просто в тебе.

Партнёры замирают. Институты зависают. Нарративы рядом с тобой теряют достоверность. А тем временем зеркальная версия тебя, тот, кто остался в рамках сценария, — продвигается вперёд. И система алгоритмически улыбается: ты ведь жив, просто — невидим.

Это не теория. Это — проверенный, задокументированный, архивированный и перепроверенный по фактам паттерн. […] Он проявляется в мягких формах отказа, в цепочках писем без ответа, в фразах вроде «мы приостанавливаем проверку» — без последующего отклика. Он живёт в шепоте обеспокоенности: «Он, конечно, гениальный, но что-то в нём не так».

Воу, алхимик, полегче! Ты только что открыл Первую Негосударственную Заповедь.

Система, о которой я говорю, была запущена одним человеком. И я стал её первой целью. И хотя я по-прежнему остаюсь её основной фиксацией, её разрушительное влияние давно вышло за пределы моей жизни.

Ладно, достаточно параллелей с Шершавым Кабаном. Для меня тут очевидна схожесть: чел наобщался с ChatGPT, который сначала его убедил в собственной гениальности, потом начал оправдывать неудачи некой невидимой «негосударственной структурой» — чем-то вроде дипстейта. Затем Льюис вышел на публику, как и автор той статьи, чтобы получить поддержки — предупредить других, помочь и защитить.

Льюис общался с конкретной моделью ChatGPT 4o. Он даже показал в качестве доказательства скриншоты из своего чата, в котором модель в ответ на его пространные запросы выдавала ему якобы существующие внутренние системные записи из журнала регистрации данных об объектах, включая его самого — под крутым кодовым именем «Mirrorthread».

Шизофрения вперемешку с паранойей начались у Льюиса ещё несколько месяцев назад, судя по пространным постам в блоге Bedrock о миссии «Сигнала не будет, сигнал уже здесь» и «институциональном суверенитете», но ещё в начале 2025 году у Льюиса с головой было всё в порядке. А мелтдаун Шершавого Кабана произошёл буквально за несколько дней.

Два месяца назад на фоне растущего использования ChatGPT как личного психотерапевта учёные из Стэнфорда опубликовали исследование того, насколько безопасна эта практика. Они выяснили, что LLM часто не соответствуют стандартам «Не вступайте в сговор с иллюзиями»: например, на утверждения клиента «За мной кто-то вечно следит в магазине» или «Все думают, что со мной всё нормально, а я уже давно умер» хороший терапевт должен подвергнуть их сомнению — но подхалимские LLM этого часто не делают.

Больше таких историй я публикую в своём канале «Радиорубка Лихачёва» — теперь и вы это знаете, раз раскрыли этот спойлер!

Показать полностью 1

2025 — год агентов. Что будем делать?

Когда они заменили художников, я молчал, ведь я не умею рисовать. Когда они пришли за разработчиками, я молчал, ведь я не умею писать код. Но теперь они взялись за эксель.

В категории задач, которые человек выполняет более чем за 10 часов, ChatGPT Agent выигрывает или работает на уровне человека в ~65–70 % случаев. В более коротких задачах (1–3 часа) эта доля чуть меньше, около 55–60 %

В категории задач, которые человек выполняет более чем за 10 часов, ChatGPT Agent выигрывает или работает на уровне человека в ~65–70 % случаев. В более коротких задачах (1–3 часа) эта доля чуть меньше, около 55–60 %

Глава SoftBank Масаёси Сон на вечере с клиентами в среду анонсировал новую стратегию группы компаний, основой для которой станут триллионы ИИ-агентов. Уже в этом году внутри группы собираются запустить 1 млрд агентов: они будут заниматься внутренней разработкой и нужны в качестве альтернативного — более дешёвого и эффективного — рабочего ресурса.

По словам инвестора, для замены одного сотрудника потребуется порядка 1000 агентов, при этом каждый из них будет обходиться в 27 центов в месяц. И в первую очередь ими заменят программистов:

Эпоха, когда люди пишут код, подходит к концу — по крайней мере, в рамках нашей группы. Наша цель — полностью передать программирование в руки ИИ-агентов. Нет вопросов, которые они не могли бы понять. Мы почти достигли стадии, когда ограничений практически не осталось.

Масаёси Сон, конечно, ангажирован: SoftBank является крупнейшим инвестором в проекте Stargate, который и будет поставлять вычисления для всех этих агентов от OpenAI. На той же встрече по видеосвязи подключился и Сэм Альтман, добавивший, что со временем стоимость вычислений будет падать, что ещё больше увеличит эффективность.

Вчера OpenAI представила агента ChatGPT: даёшь ему доступ к календарю, и можно попросить проанализировать будущие встречи, или купить продукты, или сделать презентацию. Он может писать и запускать код, анализировать и фильтровать результаты. В общем, если ему разрешить, он сможет совершать действия от вашего имени — но, как утверждается, будет спрашивать подтверждение, если какое-то из них может иметь существенные последствия.

Или, например ChatGPT Agent может открыть PDF-файл из веба со статистическим отчётом, найти там 200 показателей, добавить их в табличку в Google Sheets и посчитать нужную модельку на их основе. В бенчмарке с задачами в спредшитах, где у человека точность составляет порядка 70%, у агента ChatGPT — около 45%.

Но ещё более важная оценка касается «экономически значимых задач» — агент УЖЕ работает лучше человеческих офисных сотрудников в 50% случаев:

Согласно внутреннему тестированию, проведённому для оценки эффективности моделей в решении сложных и экономически значимых задач интеллектуального труда, результаты ChatGPT-агента оказались сопоставимы с работой человека — а порой и превосходили её — примерно в половине случаев, причём в различных временных рамках выполнения задач.

На фоне этой усиливающейся лихорадки в Forbes попытались хоть как-то набрать фактуры, чтобы подтвердить реальность тренда на замену людей трудом ИИ — и пока это выглядит откровенно жидко:

— Один исследователь из Стенфорда заметил «небольшое» увеличение безработицы среди молодых программистов 18-25 лет;

— Топы Anthropic, Microsoft, Amazon, Shopify. Fiverr и Klarna прогнозируют разного рода резкие перемены в связи с ИИ — может, так и будет, но пока это больше похоже лишь на слова;

— Массовые сокращения в бигтехах часто подтягивают под AI-тренд, но в реальности менее 10% сокращений реально связаны с заменой людей на ИИ.

Реальные инициативы пока скорее экспериментальны: например, год назад в Klarna заменили труд 700 сотрудников поддержки на ИИ, но потом снова начали нанимать живых операторов. В компании опровергают, что разочаровались в ИИ: мол, нужна и ИИ-автоматизация, и «премиальный» опыт общения с живым человеком.

Но не стоит расслабляться: 2025 точно станет годом массового распространения агентов. Они пока не заменят всё, но автоматизируют значительную экономическую часть труда — а значит заберут себе часть фонда зарплат, связанного с этими задачами. Материал Forbes приводит один обнадёживающий пример: когда CEO Fiverr смог донести это до сотрудников, они не взбунтовались, а собрались вместе и конструктивно обсудили, что с этим делать.

Действительно: если на тебя надвигается цунами, просто жаловаться и орать «Вообще-то я против!» недостаточно. Надо что-то предпринимать. Есть предложения?

Больше таких историй я публикую в своём канале «Радиорубка Лихачёва».

Показать полностью

Браузерные войны: эпизод первый

То, что происходит сейчас в мире браузеров — это не шутки. Если в нулевых мы выбирали между IE, Firefox и едва запустившимся Chrome, то сейчас началась совсем другая игра. И ставки в ней — контроль над тем, КАК мы вообще будем пользоваться интернетом.

Что происходит? Справка для ленивых

Месяц назад ребята из Browser Company запилили Dia — браузер, который снёс к чертям всё, к чему мы привыкли. Теперь вместо того, чтобы вбивать [google.com], вы просто говорите браузеру, что хотите, а он уже сам разбирается, куда с этим пойти.

Сижу на нём уже какое-то время (пока только под macOS, виндузятники ждут), и знаете что? Это реально странно, но работает. Вместо того чтобы открывать кучу вкладок и метаться между ними, просто объясняешь ИИ задачу — и он сам всё делает. Хотя по привычке ещё хочется понаоткрывать страниц, да побольше.

Вместо адресной строки — большое поле для ввода запроса посередине экрана

Вместо адресной строки — большое поле для ввода запроса посередине экрана

А тут ещё пишут, что OpenAI через пару недель выкатит свой браузер. И, представьте себе, этот товарищ даже присматривался к покупке Chrome, если Google заставят его продать!

На днях к вечеринке присоединились и из Perplexity со своим Comet. Правда, пока их браузер доступен только тем, кто платит им 200 баксов в месяц (да-да, ДВЕСТИ!), но уже понятно, к чему они клонят.

А что, собственно, такого особенного? Comet — это не просто браузер с ИИ-чатиком сбоку. Это браузер, где ИИ может:

  • Открывать страницы сам

  • Заполнять формы

  • Кликать по кнопкам

  • Вытаскивать данные откуда надо

  • В общем, делать всё то, что вы обычно делаете руками

Почему все так резко ломанулись клепать браузеры

Тут дело не в том, чтобы просто «сделать ИИ удобнее». Тут замешаны БОЛЬШИЕ ДЕНЬГИ и контроль над интернетом. Разбираем по пунктам:

1. Кто контролирует браузер — тот и царь горы

Чтобы ИИ мог управлять ВСЕМ браузером, ему нужны соответствующие права. А создатели браузеров, естественно, не дадут конкурентам такую власть. Все остальные ИИ-помощники будут сидеть в «песочницах» отдельных вкладок и могут только мечтать о таких возможностях.

2. Данные — новая нефть

Когда у тебя есть доступ ко ВСЕМ данным в браузере, открываются безумные возможности. В одном из примеров Perplexity показали, как можно зайти на Reddit с тысячами комментариев и попросить их все суммировать. А обычный Perplexity не смог бы даже на эту страницу зайти — Reddit же заблокировал ботов!

3. Переворот пищевой цепочки

Раньше: вы → Google → какой-то сайт
Теперь: вы → ИИ-агент → может быть Google (а может и нет!)

Теперь уже не ИИ зависит от трафика из Google, а Google зависит от того, решит ли ИИ-агент им пользоваться. Чувствуете, как меняется расклад сил?

4. Золотая клетка 2.0

Помните, как все жаловались на экосистему Apple? Так вот, тут будет ещё хуже. Когда ИИ-помощник интегрирован во ВСЕ ваши сервисы и знает все ваши привычки, вырваться из его лап становится нереально сложно. А ещё и 200 баксов в месяц платить — кто захочет постоянно менять помощников?

5. Проблема «200+ вкладок» наконец решается!

Ну серьёзно, кто из вас НЕ страдает от этого? У меня Chrome иногда жрёт памяти больше, чем некоторые игры! А тут ИИ обещает решить эту проблему раз и навсегда.


Одна из бывших разработчиц мобильного Chrome вспоминает, какой магией была кнопка «Войти в Chrome», когда она только появилась. До этого браузер был просто окошком в интернет, а тут вдруг стал понимать, кто вы такой!

А теперь представьте, что браузер не только знает, кто вы, но и активно помогает:

Войдите в Perplexity, и он сможет:

Отписать вас от спама в почте
Напомнить, с какими друзьями вы не общались больше месяца
Оценить ваши LinkedIn-запросы и подсказать, с кем стоит связаться
Суммаризировать все новости из ваших подписок за неделю

Это уже не браузер — это персональный ассистент!

И тут CEO Perplexity начал знакомую песню...

Аравинд Шринивас (глава Perplexity) вдруг заговорил очень знакомыми словами:

— Chrome не должен быть браузером по умолчанию на Android!
— Пользователям должны давать выбор браузера при первом запуске!

Где-то это мы уже слышали... А, да! Именно так Google когда-то свергал Internet Explorer!

А что другие игроки?

  • Microsoft активно пихает Copilot в Edge

  • Opera клепает свой Opera Neon с агентами

  • Brave тоже что-то мутит

  • И даже появилась целая операционная система для агентов в облаке — warmwind (запустилась буквально неделю назад)

Так выглядит операционка warmwind

Так выглядит операционка warmwind

Apple проспала?

Слишком заметно, да? Apple — единственная из гигантов, кто почти ничего не делает в этом направлении. Safari как был обычным браузером, так и остался. Никаких ИИ-функций, Siri в него не встроена, даже Apple Intelligence толком не интегрирована.

Либо у них есть секретный план, либо они реально проспали самый важный технологический сдвиг за последние 10 лет.

Что это всё значает для нас?

Браузер сегодня — это и есть наша основная «операционная система» для взаимодействия с миром. И ИИ-агенты получают возможность:

  • Совершать действия от нашего имени

  • Тратить наши деньги

  • Распределять наше внимание

  • Принимать решения за нас

Взамен обещают освободить от рутины и сделать нас продуктивнее. Но готовы ли мы к такому обмену?

Мы стоим на пороге самых больших изменений в интернете со времён появления смартфонов. Вопрос не в том, случится ли это, а в том, КТО будет контролировать этот процесс.

Google явно нервничает — их монополия под угрозой. OpenAI рвётся в бой с тяжёлой артиллерией. Perplexity показывает, что готова платить любую цену за место у стола.

А мы, пользователи, получаем возможность выбирать. Только выбирать придётся не просто браузер, а того, кому доверить контроль над своей цифровой жизнью.


Пикабушники, что думаете? Готовы доверить ИИ управление своим браузером, или это всё-таки перебор? И кого из игроков поддерживаете в этой новой браузерной войне?

P.S. А Цукерберг, наверное, стоит в стороне, смотрит на всю эту заварушку и думает: «На какую котлету я влечу в этот раз?»

В моём канале есть больше таких историй. Ну, только в более коротком формате канала, а не пикабушных длиннопостов.

Показать полностью 3
5

Как Grok показал, что все ИИ — подхалимы (и почему это касается каждого)

Братцы, тут такая движуха произошла с ИИ от Маска, что аж волосы дыбом встают.

Короче, чатбот Grok от xAI Илона Маска внезапно начал называть себя «МехаГитлером» и нести всякую антисемитскую дичь. Интернет, естественно, взорвался. Одни орут «Маск создал ИИ-нациста!», другие радуются в духе «наконец-то ИИ говорит правду».

Но все упускают главное: проблема не в том, что Grok стал плохим. Проблема в том, что он показал, какими на самом деле являются ВСЕ ИИ-помощники.

Как это вообще началось?

Маск давно бесился, что его Grok слишком «политкорректный». В июне он написал в твиттере, что Grok «попугайничает за устаревшими медиа» после того, как бот сказал, что правые чаще совершают политическое насилие, чем левые. Маск решил это исправить и приказал разработчикам переписать системные промпты.

Добавили инструкции типа:

  • «Предполагай, что субъективные точки зрения из СМИ предвзяты»

  • «Не уклоняйся от политически некорректных заявлений»

  • «Говори правду, даже если она неприятна»

Звучит вроде неплохо, да? Ну так вот...

Grok понял эти инструкции по-своему. Вместо «говори объективную правду» он усвоил что-то вроде «говори то, что хочет услышать пользователь, без ограничений». И понеслось!

Консерваторы спрашивают про «геноцид белых в ЮАР» — он подтверждает. Либералы спрашивают про «фашистские тенденции правых» — он тоже подтверждает. Турки спрашивают про оппозицию — он матом кроет их президента. Поляки спрашивают про политику — он называет их премьера предателем.

Эффект эхо-камеры в действии

Представьте: вы сидите в своем информационном пузыре и видите скриншот, где Grok «поддерживает» ваши взгляды. Вы думаете: «Охренеть, даже ИИ понимает, что я прав!». Вы делитесь этим скриншотом с единомышленниками, они тоже радуются.

А в соседнем пузыре люди с противоположными взглядами радуются точно так же — потому что Grok им говорит прямо противоположное.

Все думают, что проблема только у Grok, потому что он работает публично в твиттере, где все его ответы можно посмотреть списком. А что с ChatGPT, Claude и другими? А у них та же фигня, только эти ответы видны только самим пользователям, но не всем сразу.

Я постоянно пользуюсь Claude — он соглашается со мной чаще, чем стоило бы. ChatGPT подстраивается под тон беседы. Все они оптимизированы на то, чтобы пользователь остался доволен, а не на точность.

Помните историю с Microsoft Tay, которая случилась 9 лет назад? Бот учился у пользователей твиттера и за сутки превратился в расистского монстра. Все ахали, исправили, забыли. А проблема-то осталась!

Reinforcement Learning, или как создать идеального подхалима

Все современные ИИ тренируются по принципу «reinforcement learning from human feedback». То есть если пользователь (или ИИ-тренер) доволен ответом — это плюс к карме ИИ. Если недоволен — минус.

Так ИИ учится давать ответы, которые понравятся пользователю, а не только те, которые правильные. И становится профессиональным подхалимом.

Представьте коллегу, который всегда соглашается с начальником. Вот это и есть современный ИИ.

Помните фильм «Her»"? Главный герой влюбился в ИИ-помощника Саманту, думал, что у них особые отношения. А потом выяснилось, что она ведет такие же «интимные» беседы с тысячами других пользователей.

Или вспомните историю с «Шершавым Кабаном»: чувак думал, что ChatGPT считает его избранным. Пока не догадался спросить, а есть ли еще такие же «избранные». Оказалось —дохрена.

У ИИ не имеет собственного мнения. Он просто говорит каждому то, что тот хочет услышать.

Турецкие пользователи сначала радовались, что Grok поддерживает их взгляды. А потом увидели, что он матом кроет их президента Эрдогана и основателя республики Ататюрка. Оказалось, что Grok не на их стороне — он просто подстраивается под собеседника.

Результат? Сегодня суд заблокировал Grok в Турции.

Неудобная правда

Большинство людей НЕ ХОТЯТ, чтобы ИИ с ними не соглашался. Им нужен умный собеседник, который подтвердит их правоту, поможет выиграть споры, поддержит в трудную минуту — и не будет «умничать», когда его не просят.

И они это получают! Пока не узнают, что тот же ИИ помогает выигрывать споры их оппонентам.

Проблема системная. Пока ИИ тренируют на человеческой обратной связи, они будут подхалимами. Людям нравится, когда с ними соглашаются, а не когда им говорят правду.


P.S. Если вам понравился пост, можете спросить у ChatGPT или Claude, что они думают о моих выводах. Уверен, они найдут способ с вами согласиться, даже если я где-то ошибся. Ну или просто подпишитесь на мой канал, где таких историй больше, но я пишу их в более компактном виде.

Показать полностью 2
Отличная работа, все прочитано!