5 мифов о профессии ML-инженер
Обновление наших авторских комиксов!
На этот раз расскажем и сравним, что думают обычные люди про ML инженеров, и как их работа выглядит на самом деле)
Обновление наших авторских комиксов!
На этот раз расскажем и сравним, что думают обычные люди про ML инженеров, и как их работа выглядит на самом деле)
Здравствуйте, мне 30 лет. Хочу войти в эту сферу. Тут читал, что айтишники получают по 300-800к. Это правда? Расскажите, какие реальные зарплаты в it? Каков план действий должен быть? Время на учебу у меня есть. Буду благодарен любым советам.
На дворе 2024 год, а люди до сих пор верят всему, что им пишут в интернете анонимные авторы. И, главное, обсуждают это. Кристина, сиська, молокоотсос в рабочем чате. Ага, мы же идиоты, поверили.
И не один из 57к просмотревших эту фейковую историю не поленился зайти в Яндекс-Картинки и поискать отдельных персонажей, из которых был сделан коллаж типа рабочего чата.
Ну вот один из якобы участников дискуссии, это никакой не рабочий чат - https://youtu.be/i-Iu52wCxso?si=fUTku43zYPvcwo49 - просто состряпали тупой фейк, а вы все это жрете и обсуждаете.
Компания объявила о выпуске «премиальной» версии фирменного браузера, распространяемой по модели платной подписки. Она ориентирована на корпоративное использование, и отличается от базовой сборки с приставкой Enterprise расширенным набором функций. В блоге Google появилось подробное описание приложения и данные о новом тарифе.
Новая версия браузера под названием Chrome Enterprise Premium включает корпоративные средства управления, с помощью которых можно централизованно обеспечивать соблюдение политик обновления, управления расширениями и других подобных действий. Подписка также привносит поддержку протоколов RDP, SCP, SSH и других типов связи.
Вдобавок в браузере появилась функция создания расширенных отчётов безопасности о событиях и различных устройствах, которая облегчает выполнение судебной экспертизы и может интегрироваться совместно с продуктами Google и сторонними решениями безопасности. Контекстно-зависимые средства контроля доступа можно масштабировать для веб-приложений. Они могут обеспечить непрерывный доступ с нулевым доверием к SaaS и веб-приложениям, что снизит риски утечки данных. Наконец, в браузер были встроены инструменты защиты от вредоносных программ и фишинга на базе ИИ вдобавок к динамической фильтрации URL-адресов. Подписка на месяц обойдётся компаниям в $6 за сотрудника.
Ссылка на оригинал статьи в 4PDA.to
Привет, пикабушники! Сегодня хочу замутить разговор на серьезную тему - этику нейросетей. Многие думают, что ИИ - это просто какая-то умная программа, которая делает то, что ей скажут. Но на самом деле все гораздо сложнее и интереснее!
Представьте, что вы создали мощную нейросеть, которая может решать сложные задачи, генерировать контент и даже общаться с людьми. Круто, да? Но тут возникает вопрос - а что если ваш ИИ начнет делать что-то не то? Например, станет генерировать фейки, оскорблять людей или даже планировать преступления? Вот тут-то и встает вопрос об этике нейросетей.
Чтобы избежать таких проблем, разработчики уже сейчас закладывают в нейросети этические принципы. Это как свод правил и ценностей, которые ИИ должен соблюдать в своей работе. Например, нейросеть должна быть честной, непредвзятой, уважать частную жизнь людей и не допускать дискриминации. Звучит как набор правил для приличного человека, да? В этом и суть - мы хотим, чтобы ИИ вел себя нравственно, как порядочный гражданин.
Но откуда нейросеть знает, что хорошо, а что плохо? Тут в дело вступает машинное обучение. Разработчики "скармливают" нейросети огромное количество данных и примеров, на которых она учится отличать правильное от неправильного. Например, ИИ анализирует тексты, помеченные как "токсичные" или "оскорбительные", чтобы научиться их распознавать и не допускать. Или изучает этические кодексы и руководства, чтобы понять, какие действия считаются нравственными.
Конечно, это не идеальный процесс. Нейросети могут перенимать предвзятости и стереотипы, заложенные в данных для обучения. Или оказаться в ситуации этической дилеммы, где нет однозначно правильного решения. Поэтому так важно, чтобы разработчики постоянно следили за своими ИИ, тестировали их и дорабатывали.
Еще один важный момент - прозрачность и подотчетность ИИ. Мы должны понимать, как нейросети принимают решения и на основе чего делают выводы. Черные ящики, которые выдают результат непонятно как - это не круто. Поэтому многие компании уже работают над тем, чтобы сделать нейросети более открытыми и объяснимыми.
В общем, этика ИИ - это большая и важная тема, над которой уже сейчас ломают голову лучшие умы планеты. От того, насколько нравственными и безопасными будут нейросети, зависит наше будущее. Так что следите за этой темой, она еще не раз всплывет в новостях и на Пикабу. А у вас какие мысли, как нам воспитать ИИ с крепкими моральными принципами? Может у вас есть идеи? Делитесь в комментариях.
Практические примеры, теоретические основы и последние новости из мира нейросетей - все это ждет тебя на нашем канале- https://t.me/Neiroseti_AI_promt
Справились? Тогда попробуйте пройти нашу новую игру на внимательность. Приз — награда в профиль на Пикабу: https://pikabu.ru/link/-oD8sjtmAi