Завершился аукцион на покупку американского 8064-процессорного суперкомпьютера Cheyenne
Победитель аукциона выложит за данное оборудование 480 тысяч долларов
Вычислительная мощность компьютера составляет 5,34 ПФЛОПС, и он использовался для различных научных исследований.
Из российских суперкомпьютеров три («Ляпунов», «Червоненкис» и «Галушкин») принадлежат «Яндексу», два (Christofari и Christofari Neo) – Сбербанку и по одному МГУ («Ломоносов») и МТС (GROM). Все эти компьютеры работают на графических ускорителях от Nvidia прошлых поколений – Tesla K, P-серия, A100.6 окт. 2023 г.
Через несколько дней после покупки двух израильских технологических компаний американский гигант чипов Nvidia снова присматривается к местному рынку, объявляя о сотрудничестве с компанией Sygnia, занимающейся киберконсалтингом и реагированием на инциденты.
Иллюстративное (Depositphotos)
Компания из Тель-Авива заявляет, что новое партнерство направлено на «революционизацию» кибербезопасности в энергетическом и промышленном секторах с использованием решений на базе искусственного интеллекта.
Сотрудничество объединит датчики Pathfinder и платформу Velocity XDR от Nvidia с DPU BlueField от Nvidia и ИИ-инфраструктурой кибербезопасности Morpheus, чтобы улучшить сбор данных, обнаружение угроз и реагирование на них.
Это совместное решение предназначено для использования безопасности на базе искусственного интеллекта для защиты промышленной и критической инфраструктуры.
«Поскольку киберугрозы в промышленной и критической инфраструктуре растут в количестве и влиянии, эта новая парадигма предоставит защитникам значительное преимущество перед традиционными методами, давая им возможность активно предвидеть и быстро реагировать на возникающие риски», — сказал генеральный директор Sygnia Рам Элбойм.
«Используя технологии NVIDIA, Sygnia готова помочь по-новому определить кибербезопасность в этих жизненно важных секторах, защищая от развивающихся угроз и обеспечивая устойчивость наших критически важных систем и инфраструктуры», — сказал он.
«Очень важно, чтобы надежные меры кибербезопасности защищали критически важную энергетическую инфраструктуру мира», — сказал Марк Шпилер, старший управляющий директор Nvidia по глобальной энергетике.
«Объединение платформы ускоренных вычислений Nvidia с передовыми технологиями кибербезопасности Sygnia поможет защитить энергетический и промышленный секторы с помощью ИИ».
Это не продажа. Случайно нашёл на Авито серьёзный прибор. Тут частоты благородные. У чёрных риэлторов другая техника не дешевле и опаснее. Кто им дал эти частоты если для этого требуются целые лаборатории и производство на уровне НИИ.
Послушаем агентов из спец служб кто что скажет я знаю они есть на сайте пасут все посты про искусственный интеллект нейро протезирования и частоты технику.
Откуда утечка секретных данных частот которые не возможно получить кустарным способом. Кто будет за это отвечать. Или и так и будете дурачков сажать а кто им эти приборы даёт. Тема Пси Террор.
Привет всем! Сегодня поговорим о чем-то совсем необычном и даже немного сумасшедшем – о нейросетях, которые не только умеют анализировать данные, но и становятся настоящими звездами TikTok. Да-да, вы не ослышались! Искусственный интеллект сейчас не только помогает нам выбирать сериалы на вечер, но и крутит ролики, заставляющие смеяться, удивляться и даже подпевать.
Взлет виртуальных блогеров
Представьте себе: виртуальный блогер – это полностью цифровое создание, которое с помощью мощных алгоритмов ИИ может вести себя почти как настоящий человек. Они могут говорить, шутить, а некоторые даже "живут" своей уникальной жизнью, делясь ею с миллионами подписчиков. Эти персонажи – не просто анимационные модели, они – полноценные медийные персоны с характерами и предпочтениями.
Как это работает?
Нейросети, лежащие в основе таких блогеров, обучаются на огромных массивах данных: видео, текстах, звуках и изображениях. Они анализируют, как человек может реагировать в той или иной ситуации, что делает их контент удивительно "человечным". Например, они могут смотреть популярные челленджи и создавать свои собственные, иногда даже более смешные и оригинальные.
Зачем это нужно?
Во-первых, это новый уровень развлечения. Виртуальные блогеры могут делать все, что угодно, не подвергая риску живых людей. Во-вторых, для брендов это уникальная возможность рекламы. Виртуальные инфлюенсеры не устанут, не заболеют и не скажут чего-то не то – они идеальные с точки зрения PR.
Примеры историй успеха
Одним из самых ярких примеров виртуального блогера является Lil Miquela – модель и музыкантка из США с бразильскими корнями, которая "живет" в Лос-Анджелесе. На ее счету коллаборации с такими брендами, как Prada и Calvin Klein, и более миллиона подписчиков в Instagram. Или же Lu do Magalu, виртуальный PR-менеджер крупной бразильской розничной сети, который помогает клиентам с выбором товаров и отвечает на их вопросы.
И что дальше?
Пока что будущее за этими удивительными цифровыми персонажами выглядит очень ярким. Они продолжают развиваться, их алгоритмы становятся все более сложными и интересными. Может быть, однажды они смогут полностью заменить человеческих блогеров? Кто знает, но пока мы можем наслаждаться этим зрелищем и, возможно, даже учиться у искусственного интеллекта какого-то нового трюка или движения для следующего вирусного челленджа.
Итак, следите за обновлениями, не бойтесь новых технологий и помните, что за каждым вашим любимым TikTok-видео может стоять не только талантливый человек, но и очень умная машина. Как вам такое, Илон Маск?
Практические примеры, теоретические основы и последние новости из мира нейросетей - все это ждет тебя на нашем канале- https://t.me/Neiroseti_AI_promt
Привет, пикабушники! Сегодня хочу замутить разговор на серьезную тему - этику нейросетей. Многие думают, что ИИ - это просто какая-то умная программа, которая делает то, что ей скажут. Но на самом деле все гораздо сложнее и интереснее!
Представьте, что вы создали мощную нейросеть, которая может решать сложные задачи, генерировать контент и даже общаться с людьми. Круто, да? Но тут возникает вопрос - а что если ваш ИИ начнет делать что-то не то? Например, станет генерировать фейки, оскорблять людей или даже планировать преступления? Вот тут-то и встает вопрос об этике нейросетей.
Чтобы избежать таких проблем, разработчики уже сейчас закладывают в нейросети этические принципы. Это как свод правил и ценностей, которые ИИ должен соблюдать в своей работе. Например, нейросеть должна быть честной, непредвзятой, уважать частную жизнь людей и не допускать дискриминации. Звучит как набор правил для приличного человека, да? В этом и суть - мы хотим, чтобы ИИ вел себя нравственно, как порядочный гражданин.
Но откуда нейросеть знает, что хорошо, а что плохо? Тут в дело вступает машинное обучение. Разработчики "скармливают" нейросети огромное количество данных и примеров, на которых она учится отличать правильное от неправильного. Например, ИИ анализирует тексты, помеченные как "токсичные" или "оскорбительные", чтобы научиться их распознавать и не допускать. Или изучает этические кодексы и руководства, чтобы понять, какие действия считаются нравственными.
Конечно, это не идеальный процесс. Нейросети могут перенимать предвзятости и стереотипы, заложенные в данных для обучения. Или оказаться в ситуации этической дилеммы, где нет однозначно правильного решения. Поэтому так важно, чтобы разработчики постоянно следили за своими ИИ, тестировали их и дорабатывали.
Еще один важный момент - прозрачность и подотчетность ИИ. Мы должны понимать, как нейросети принимают решения и на основе чего делают выводы. Черные ящики, которые выдают результат непонятно как - это не круто. Поэтому многие компании уже работают над тем, чтобы сделать нейросети более открытыми и объяснимыми.
В общем, этика ИИ - это большая и важная тема, над которой уже сейчас ломают голову лучшие умы планеты. От того, насколько нравственными и безопасными будут нейросети, зависит наше будущее. Так что следите за этой темой, она еще не раз всплывет в новостях и на Пикабу. А у вас какие мысли, как нам воспитать ИИ с крепкими моральными принципами? Может у вас есть идеи? Делитесь в комментариях.
Практические примеры, теоретические основы и последние новости из мира нейросетей - все это ждет тебя на нашем канале- https://t.me/Neiroseti_AI_promt
Нейросети на базе искусственного интеллекта (ИИ) могут имитировать голос. Это используется в целом ряде мошеннических схем.
Мошенники добывают образцы голоса потенциальной жертвы разнообразными методами: используют общедоступные аудио- и видеозаписи из интернета, а также данные, полученные при утечках биометрической информации. Кроме того, они могут записать голос человека, просто позвонив ему, и использовать диктофон для записи. Иногда мошенники получают доступ к аккаунту пользователя в мессенджере, применяя различные методы, такие как фишинг и социальная инженерия. Получив доступ к переписке, злоумышленники извлекают голосовые сообщения и загружают их в специальную систему, функционирующую на базе ИИ. Эта система затем анализирует голосовые образцы и учится имитировать особенности речи человека.
Чтобы избежать рисков, связанных с подделкой вашего голоса, соблюдайте простые меры предосторожности:
не отвечайте на звонки с подозрительных номеров, чтобы не дать возможности украсть ваш голос. Можно воспользоваться услугой защиты от спама и мошенников от операторов мобильной связи;
помните, подделку голоса можно отличить по чрезмерной обработке. Если в записи сильно шумит ветер, громко едут машины, лают собаки — стоит насторожиться. Но главное: голос нейросети звучит немного механически и безэмоционально;
спросите у звонящего какой-то факт, который должен быть известен только вам и ему. Например, про домашних животных, общих друзей или вашу последнюю с ним встречу;
стоит обратить внимание на психологические уловки: если вас торопят, пытаются запугать, дают инструкции о том, что нужно совершить какие-то операции в банкомате или сообщить коды, сразу отказывайтесь от подобного общения;
если некто звонит с неизвестного номера и представляется странным голосом вашего знакомого, самый надежный вариант — перезвонить самому по его личному номеру телефона;
защитите свои аккаунты в соцсетях и мессенджерах;
внимательно подходите к размещению личной и финансовой информации в социальных сетях и других открытых ресурсах;
никогда не пересылайте в мессенджерах и социальных сетях сведения из документов;
не позволяйте мошенникам манипулировать вами и не совершайте какие-либо финансовые операции по просьбе незнакомцев;
соблюдайте общие антифишинговые правила: не вводите данные своего аккаунта на посторонних сайтах, старайтесь минимизировать входы через социальную сеть на сторонние сайты, не устанавливайте подозрительные приложения и регулярно проверяйте свой телефон и компьютер антивирусом.
Информационная безопасность отвечает за то, чтобы важные сведения компании, личные дела и корпоративные тайны не попали не в те руки. Эта отрасль защищает данные от утечек, а программы, системы и сети — от взлома, порчи файлов или других видов атак. В коммерческих и государственных структурах сведения также необходимо охранять от шпионов или возможных злоумышленников внутри самого коллектива. Существующие методы обнаружения нелегальных пользователей занимают много времени и не всегда эффективны. Улучшить работу информационной безопасности можно с помощью искусственного интеллекта, который за короткое время способен анализировать большое количество данных. Ученые ПНИПУ обучили нейросеть быстро и точно выявлять нелегальных пользователей в сети. Разработка обеспечит укрепление информационного суверенитета России.
Статья опубликована в журнале «Master’s journal», 2023 год. Исследование выполнено в рамках программы стратегического академического лидерства «Приоритет 2030».
Важным инструментом обеспечения информационной безопасности компаний являются файлы журналов событий. Они представляют собой специальную базу данных, которая содержит всю информацию о различных событиях, происходящих в системе или сети, относящиеся к безопасности. Эти сведения позволяют анализировать и отслеживать активности в системе, выявлять потенциальные угрозы, определять аномальное поведение и принимать меры для защиты данных.
Сейчас актуальны статистические методы обнаружения злоумышленников в сети, которые на основе данных журнала событий изучают активность поведения легального пользователя системы и выделяют нелегальных пользователей. Но эти файлы содержат огромное количество неструктурированных данных. В крупных корпоративных системах число ежедневно создаваемых строк журнала доходит до миллиона. Их автоматический анализ занимает много времени и ресурсов. Из-за чего большинство инцидентов выявляется с опозданием и не всегда точно.
Поэтому необходим постоянный мониторинг системных журналов сразу после их создания, чтобы выявлять аномалии в поведении пользователей в режиме реального времени. Это позволяет своевременно реагировать на инциденты информационной безопасности и снижать вызванные ими риски. Для решения этой проблемы ученые Пермского Политеха предлагают использовать искусственный интеллект.
— Поведение злоумышленника отличается от поведения легального пользователя в информационной сети, и эти различия можно оценить количественно. Мы попытались отследить общие черты в их поведении и рассчитать вероятность ошибки. Проанализировав большой объем данных по действиям пользователя в информационной системе, мы обучили нейросеть использовать новую информацию. Это позволит быстрее выявлять вторжение нарушителя в систему, — объясняеткандидат физико-математических наук, доцент кафедры «Высшая математика» Пермского Политеха Елена Кротова.
В качестве основы политехники выбрали компьютерную модель перцептрон – простейший и удобный вид нейросети. Входные параметры представляют собой бинарные данные, характеризующие пользователя в системе (0 – легальный пользователь, 1 – нелегальный). Для построения и обучения нейросети использовалось более 700 видов данных по более чем 1500 пользователям.
Для сравнения, ученые произвели те же действия с другим видом нейросети, который в результате ошибочно определил злоумышленников как легальных пользователей. Это говорит о том, что сеть на персептроне способна точнее справляется с этой задачей.
Для предложенного метода оценили вероятность ошибок и сравнили с результатами работы существующих систем обнаружения угроз. Рассматривались ошибки 1 и 2 рода, когда легального пользователя принимают за злоумышленника и наоборот. Результат показал, что вероятность ошибок 1 и 2 рода у нейросети ученых ПНИПУ меньше на 20%. А значит, ее использование увеличит надежность и поможет обнаружить нелегальных пользователей в информационной системе.
Разработка ученых Пермского Политеха показала, что метод, основанный на искусственном интеллекте, лучше всего подходит для реализации на предприятии. Он не требует большого объема памяти, обладает хорошим быстродействием и позволяет анализировать большие объемы данных.
Тинькофф банк объявил о разработке уникальной системы, которая в автоматическом режиме позволяет выявлять дропов — клиентов, которые оформляют карты не для собственного использования, а для нужд мошенников, чтобы выводить на них мошеннические средства.
Система позволяет выявлять таких клиентов ещё до того, как им поступят на счёт деньги, полученные преступным путём, а также снизить количество дропов в банке в 2 раза. Для создания системы был проанализирован большой массив данных, миллионы операций клиентов Тинькофф, включая тех, кто пользовался картой исключительно в недобросовестных целях.
С помощью проведенного анализа был составлен «портрет дропа» — признаки, которые указывают на высокую вероятность того, что клиент оформил карту, чтобы продать или передать её мошенникам. Среди факторов: переоформление на другой номер телефона, поступление небольших сумм сразу после открытия счета для так называемого «прогрева» дропа и многое другое.
Портрет лёг в основу работы системы, усиленной искусственным интеллектом, которая в режиме реального времени выявляет подозрительное поведение клиента по 1000 разных факторов и подаёт сигнал. После этого сотрудник проверяет все выявленные совпадения с «портретом дропа», в случае необходимости проводит дополнительное расследование или сразу ограничивает дистанционное банковское обслуживание. Это затрудняет получение и вывод средств мошенниками с помощью переводов или банкоматов.
Отмечается, за год Тинькофф заблокировал более 66 000 счетов, которые подростки продали злоумышленникам. Находить их помогает система фрод-мониторинга на основе искусственного интеллекта. Система анализирует поведение клиента и его платежные привычки по тысяче факторов. Например, фиксирует, где сколько денег человек переводит и куда. Это позволяет блокировать карты при первой подозрительной операции.
Хотите узнавать первыми о полезных сервисах с искусственным интеллектом для работы, учебы и облегчения жизни? Подпишитесь на мой телеграм канал. Там я рассказываю, как можно использовать нейросети для бизнеса.