Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
#Круги добра
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Игра рыбалка представляет собой полноценный симулятор рыбалки и дает возможность порыбачить в реально существующих местах из жизни и поймать рыбу, которая там обитает.

Рыбный дождь

Спорт, Симуляторы, Рыбалка

Играть

Топ прошлой недели

  • SpongeGod SpongeGod 1 пост
  • Uncleyogurt007 Uncleyogurt007 9 постов
  • ZaTaS ZaTaS 3 поста
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
6
SlyVolunteer
SlyVolunteer
2 месяца назад
Творческий инкубатор
Серия Происхождение экономических систем

Влияние технологических изменений на адаптацию экономических систем⁠⁠

Пост с содержанием серии: Происхождение экономических систем путём естественного отбора


Технологические изменения оказывают значительное влияние на адаптацию экономических систем, создавая как новые возможности, так и вызовы. С одной стороны, инновации стимулируют рост производительности, снижают издержки и открывают доступ к ранее недоступным рынкам. С другой стороны, они часто ведут к структурным преобразованиям, вынуждая целые отрасли адаптироваться к новым условиям или уходить с рынка. Примером может служить переход к цифровым технологиям, который радикально изменил такие сектора, как розничная торговля, финансы и транспорт.

Развитие искусственного интеллекта и автоматизации стало катализатором для пересмотра традиционных моделей труда. Это вызвало обеспокоенность относительно утраты рабочих мест в некоторых секторах, особенно в производственной и низкоквалифицированной сфере. В то же время спрос на высококвалифицированных специалистов стремительно растёт, усиливая разрыв в доходах между различными категориями работников.

Кроме того, технологические изменения играют ключевую роль в достижении экологической устойчивости, предоставляя инструменты для мониторинга и сокращения выбросов, улучшения энергоэффективности и оптимизации использования ресурсов. Внедрение зелёных технологий, таких как возобновляемые источники энергии и переработка отходов, стало необходимым условием для адаптации экономических систем к вызовам климатических изменений.

Важным фактором адаптации является также использование больших данных и аналитических технологий, которые позволяют компаниям и правительствам быстрее реагировать на изменения спроса и предложений, выявлять риски и принимать решения на основе точных прогнозов. Например, системы на основе машинного обучения активно используются для предсказания экономических кризисов и разработки антикризисных стратегий.

Однако наряду с преимуществами остаются и вызовы, включая рост технологического неравенства между странами, концентрацию власти у крупных технологических корпораций и необходимость обновления регуляторных рамок для обеспечения справедливой конкуренции. Адаптация экономических систем к технологическим изменениям требует комплексного подхода, включающего развитие образования, международное сотрудничество и реформирование институтов.


Предыдущий пост: Риски и возможности экономических мутаций в XXI веке

Продолжение: Экологическая устойчивость как основа современной экономики

Этот пост начинает Часть 9. Экономическая адаптация и устойчивость

Как экономические системы адаптируются к меняющимся условиям. Теория устойчивого развития, экологии и зелёной экономики как примеры современной адаптации.

Научпоп-серия Происхождение экономических систем путём естественного отбора


Интересные авторы Творческого инкубатора:

@SPIDER3220 - коллекция транспортных карт

@Mistel - переводы комиксов и сериалов + авторская озвучка

@Anton107065 - фотоотчеты и описания пеших прогулок

@AlexsKnows - авторские рассказы

@Diadikatu - собственный опыт победы над глухотой с помощью кохлеарного импланта

@MeniazovutMariia - авторские посты про Индию, переехала туда 2 года назад

@Fenyx - авторские макрофото

@user8278357 - где поесть в Батуми

@Naomo - авторские цифровые рисунки (не сгенерированные!)

@Seafishbarrakuda - авторские посты из Ганы

Подробнее о Творческом инкубаторе в посте: Ответ на пост «Нужен ли на Пикабу авторский контент, и если нужен, то какой и когда? Несколько вопросов к аудитории»

Показать полностью
[моё] Научпоп Эволюция Исследования Политэкономия Экономика Инновации Цифровые технологии Искусственный интеллект Зеленые технологии Большие данные Анализ данных Машинное обучение Экономический кризис Автор
2
2
NichegoTakoy
NichegoTakoy
2 месяца назад
Серия Путь в искусственный интеллект

Обучение на программиста искусственного интеллекта, бесплатно и без смс. Мой путь⁠⁠

Как я пришёл к разработке ИИ

Я — разработчик 1С с более чем 14 годами опыта. Всё это время я работал в изолированной экосистеме, в основном решая прикладные бизнес-задачи. Тем не менее, давно присматривался к теме машинного обучения — ещё лет десять назад. Но тогда это казалось чем-то фантастическим, почти не имеющим практического применения в реальной жизни и работе. В тот момент я не стал глубоко погружаться в тему.

Несколько лет назад, когда появился ChatGPT, стало ясно: за ИИ — будущее. Однако из-за жизненных проблем и банальной лени я ничего с этим не сделал.

В этом году появилось свободное время и острое ощущение, что я уже отстаю от передовых технологий. Если не разберусь в этой теме сейчас — в обозримом будущем могу остаться не у дел. Тем более, тема с каждым днём становится всё интереснее и доступнее даже для одиночек-разработчиков.

В общем, я понял: пора переучиваться на ML/AI-разработчика.


А с чего начать?

Ииии... что дальше?

Я понятия не имел, за что ухватиться, чтобы просто начать. Проблема всех 1Сников — мы настолько изолированы от других систем, что наши знания в смежных технологиях очень ограничены. В этом плане я соглашусь с теми, кто называет 1Сников ненастоящими программистами 🤷‍♂️

К счастью, сейчас в нашем распоряжении целый зоопарк языковых ИИ, которые могут подсказать, с чего начать, помочь составить план обучения и порекомендовать полезные ресурсы.

Отдельно хочу отметить: я категорически не хочу пользоваться платными курсами. Уверен, что в интернете достаточно качественной открытой информации — нужно лишь понять, что именно использовать и в каком порядке.


Полезные ИИ-инструменты

Только с VPN

  • https://chatgpt.com — ChatGPT

  • https://grok.com/ — Grok от Маска. Мощный поиск данных и суммаризация.

  • https://claude.ai/ — Claude. На момент тестирования — наиболее «человечная». Подходит для переписки и эмоциональной поддержки.

Без VPN

  • https://chat.deepseek.com/ — мультимодальная ИИ из Китая. Есть удобные приложения.

  • https://chat.qwen.ai/ — мультимодалка от Alibaba. Есть приложение, умеет генерировать сайты.

  • https://venice.ai/ — любопытная нейросеть без цензуры и с заявленной приватностью. Пока не разбирался глубоко.


Мой первый шаг

Первое, что я сделал — спросил ИИ, как разрабатывать ИИ. Потом попросил его улучшить собственный план. Поигравшись с этими шагами на разных моделях, у меня сложилось базовое представление, что нужно изучить в первую очередь:

  • Python — почти вся разработка ИИ ведётся на нём. Начать с основ, постепенно наращивая сложность. Обязательно — библиотеки NumPy и Pandas.

  • Статистика — на старте хватит базовых понятий. Углублюсь позже при необходимости.

  • Английский язык — желательно. К счастью, я им владею. Без него сложно читать документацию и обучающие материалы. Хотя, конечно, есть автопереводчики, YouTube даёт субтитры почти ко всем видео — спасибо ИИ.


Что дальше

Направление определено. Начинаю двигаться. В следующих постах расскажу о полезных ресурсах, найденных по пути, о моём продвижении и дальнейших шагах в сторону разработки ИИ.

UPD: Следующий пост, подборка бесплатных курсов по Python и статистике.

Показать полностью
[моё] Программирование Бесплатное обучение Машинное обучение Python IT Программист
11
8
bolotnikoff.a
bolotnikoff.a
2 месяца назад
Искусственный интеллект

Мой Телеграм бот как хобби вышедшее из под контроля⁠⁠1

Все же хочется поделиться своими "рукоделиями" с народом. Я бывает страдаю всякой всячиной, чтобы мозги не заржавели. Вот и решил я тут сделать бота в Телеграм. Даже сам бот брал свое начало как эксперемент, а не как готовый проект. Плюс ко всему мне любопытно изучать способы практического применения нейросетей и машинного обучения. Сначала я просто привязывал к боту всякие разные мелкие модели нейронок, просто как служебные, TTS (текст в голос) и наоборот, голос в текст. Изучал всякие подходы к тренировке или дообучению, и наконец просто пробовал всякое на своем боте. Сейчас наверное ботов "интерфейсов" для нейронок много, но я и не хотел "просто интерфейс", как я уже писал я хочу понять возможности практического применения.

Первый "звоночек" о том что я получил что-то интересное у меня случился когда я прикрутил интерфейс DeepSeek. Я сразу решил, что раз у меня есть возможность переводить текст в голос и голос в текст, то надо это замутить с DeepSeek. (напомню, я делал это все просто по приколу). И вот я в какой-то момент смотрю, что я предпочитаю просто ГОВОРИТЬ с чат ботом. Про всякое, то про музыку, как выбрать треки для прослушивания на основе того что я предпочитаю (я реально описываю эмоции, описываю настроение и все такое, и он предлагает то что надо). Так вот, я просто иду по улице и записываю голосовухи для бота, и бот мне отвечает. Со стороны похоже что я просто общаюсь с человеком. Это прикольно и удобно, я этого сам не ожидал.

Неожиданным плюсом стало то, что я могу отправить голосовуху и не ждать пока бот сгенерирует ответ (классическое приложение потухает при блокировке экрана и не генерирует ничего) а тут просто отправил голосовуху, и хоть блокируй телефон, все делается в фоне.

Я все-же не особо представлял четкий путь развития, только что-то абстрактное, типа Практическое применение.

Ну и совершенно не ясным мне образом, я решил что мне надо прикрутить нейронку идентификатор растений. Убил неделю на обучение. Это был прикольный опыт. Поняв что на имеющихся мощностях мне обучение не светит, я арендовал сервер с специальными вычислителями от Nvidia. Помаялся там несколько дней, и понял что за разумные сроки я не смогу обучить нейронку хотя-бы на 90 миллионов параметров. Подумал что потратить 60-90К на эксперемент я пока не готов😁 и отложил это дело на попозже. довольствуясь обученными моделями. В итоге прикрутил две нейронки, обученные на двух крупных датасетах. и оно заработало... Прикольно, весело. Я сфоткал все клумбы в округе, а когда выбирались на всякие шашлындосы или типа того, я тоже фоткал и идентифицировал все что попадалось незнакомое)

А потом пришло осознание - надо подключать DeepSeek к идентификации. Ну точнее чтобы он рассказал мне про растение. Я представлял себе это как что-то типа википедии. Помаявшись вечерок-другой, я наконец получил рабочий вариант, и то что получил, оказалось даже лучше моих ожиданий.

Я тестировал бот на растениях найденных при недавней поездке на морские посиделки

1/2

Интересный экземпляр

И вот немного переписки

1/5

Обратите внимание, при необходимости бот дублирует текст в голосовом сообщении

Итак, зная что БЯМы (большие голосовые модели) могут по приврать, я подумал что это очередной глюк про съедобность. На википедии я не нашел про это инфу. Но я решил загуглить именно Oysterleaf. И что в итоге, да, есть куча статей не в русском сегменте о выращивании и сборе листьев для салата... Меня это поразило, потому что, как я писал уже, на вики этого нет. А я видел это растение с самого детства, и не догадывался даже. Сейчас правда я не совсем у моря живу, надо часик-другой ехать, и пока я не собираюсь на то побережье где растут эти растения... но еще не вечер, так что если поддержите пост лайками, я сделаю из него салат и запишу об этом видос (блин, да я походу и так запишу, мне капец как любопытно)

ПОМНИТЕ - Нейронные сети могут ошибаться. Проверяйте информацию!

Зачем же собственно я пишу это все. Да просто потому что во-первых хочу поделится, а во-вторых, для развития бота в направлении Практического использования, нужно не только мое мнение, нужно опыт использования разных людей. Ну и плюс, бот возможно реально будет полезен

P.S. Я планирую еще прикручивать штуки, к примеру запланировано прикрутить GPT и сделать бесшовную смену БЯМ прямо в диалоге, возможно даже устроить тройничок в диалоге, чтоб все участвовали, и пользователь, и DeepSeek и GPT, но пока не знаю как это распределить, обдумываю. Ну а т.к. для работы с GPT нужно VPN, то я еще и его сделал на WireGuard. По просьбам трудящихся могу еще какой протокол прикрутить...

https://t.me/DigitalWeed_ai_bot

Показать полностью 7
[моё] Блог Telegram бот Telegram Нейронные сети DeepSeek Эксперимент Хобби Машинное обучение Ботаника Статья Чат-бот Тренд Длиннопост
3
4
machinelearninga
machinelearninga
2 месяца назад

ИИ-ассистенты пока не способны улучшить код, написанный человеком⁠⁠

Пока одни восхищаются способностью ИИ писать код по текстовому описанию, в компании Цукерберга и КО решили устроить ему настоящее испытание на профессионализм и создали «The Automated LLM Speedrunning Benchmark» — полигон, где нейросетям предлагается не просто написать что-то с нуля, а воспроизвести и улучшить уже существующий код.

ИИ-ассистенты пока не способны улучшить код, написанный человеком Openai, Искусственный интеллект, Python, Google, Тренд, Чат-бот, Машинное обучение, Telegram (ссылка), Длиннопост

В качестве задачи был взят реальный проект NanoGPT (https://github.com/KellerJordan/modded-nanogpt), где сообщество энтузиастов соревнуется в максимальном ускорении обучения GPT-2, небольшой языковой модели. Цель - не просто скопировать, а понять и применить конкретную оптимизацию, которую до этого внедрил человек.

ИИ-ассистенты пока не способны улучшить код, написанный человеком Openai, Искусственный интеллект, Python, Google, Тренд, Чат-бот, Машинное обучение, Telegram (ссылка), Длиннопост

🟡Суть эксперимента

ИИ-агенту дают исходный скрипт предыдущего рекордсмена и подсказку одного из 3 уровней: от псевдокода с описанием изменений до полноценной мини-статьи, объясняющей суть улучшения. Агент, получив эти данные, должен внести правки в код так, чтобы приблизиться к скорости обучения следующего рекордсмена.

Эффективность мерили метрикой FSR (Fraction of Speedup Recovered), это доля восстановленного ускорения. Если человек ускорил процесс на 10 минут, а ИИ смог добиться ускорения в 5 минут, его результат — 50% FSR. Такая система позволяет оценить не абстрактные способности модели, а ее умение работать с конкретными, практическими задачами по оптимизации.

🟡Результаты

Итоги оказались, мягко говоря, отрезвляющими. Даже топовые модели (Claude 3.7 Sonnet и Gemini 2.5 Pro), показали очень скромные результаты.

С лучшими подсказками (псевдокод и детальное описание) самые успешные агенты с трудом смогли воспроизвести хотя бы 40% от прироста производительности, достигнутого человеком. Без подсказок их производительность была и вовсе близка к нулю.

Разбор полетов бенчмарка показал, что ИИ-агенты часто генерируют либо просто неработающий код с ошибками времени выполнения, либо код, который компилируется, но не дает никакого прироста скорости, а иногда даже замедляет процесс.

🟡Фреймворк

Авторы не просто опубликовали статью, а выложили весь фреймворк в открытый доступ (https://github.com/facebookresearch/llm-speedrunner), так что любой желающий может самостоятельно погонять практически любые модели.

В основе фреймворка лежит гибкий агентский каркас, который имитирует рабочий процесс исследователя: генерация идеи, реализация в коде, запуск эксперимента и анализ результатов.

Каждая итерация ИИ-агента аккуратно сохраняется в отдельную версию, создавая полную историю всех правок, от удачных до провальных.

Установка максимально проста, а для тех, кто хочет воспроизвести эксперименты из статьи, авторы приложили (https://github.com/facebookresearch/llm-speedrunner/tree/mai...) готовые скрипты. Также можно легко добавить (https://github.com/facebookresearch/llm-speedrunner?tab=read...) и протестировать другие модели, просто создав для них конфиг или дать ИИ другую задачу, не связанную с NanoGPT - определять кастомные таски тоже можно (https://github.com/facebookresearch/llm-speedrunner?tab=read...).

📌Лицензирование: MIT License.

🟡Arxiv (https://arxiv.org/pdf/2506.22419)

🖥GitHub (https://github.com/facebookresearch/llm-speedrunner)

#AI #ML #LLM #Benchmark

Показать полностью 2
Openai Искусственный интеллект Python Google Тренд Чат-бот Машинное обучение Telegram (ссылка) Длиннопост
0
0
CrowsHaveEyes
CrowsHaveEyes
2 месяца назад
Лига программистов

Как я разрабатываю агентские ИИ системы для извлечения признаков (feature-extraction) из мультимодальных данных⁠⁠

Извлечение признаков (feature extraction) из текстов — ключевой шаг при анализе документов: он является основной практической частью таких задач по обработке данных, как классификация, тематическое моделирование, NER, QA. Если раньше почти что для каждой из таких задач, и в особенности для разных модальностей данных использовались специализированные архитектуры нейронных сетей, то сейчас подобные системы обычно строятся вокруг LLM/VLM. Однако и современные модели на практике настраиваются под конкретные задачи через fine‑tuning или distillation, в связке с retrieval (RAG) и агентскими архитектурами.

В этой статье я рассматриваю свой опыт проектирования и разработки агентов для выполнения feature-extraction. При наличии мультимодальных данных с разнородной структурой - тексты, PDF, изображения - мне приходится извлекать нужные пользователю фрагменты информации. Для этого я перебрал различные подходы - в зависимости от сложности задачи - и теперь пора сравнить их эффективность и отметить сложности реализации.

Традиционный подход: LLM + RAG, которого уже не достаточно

Retrieval‑Augmented Generation (RAG) — тандем LLM и векторных баз для поиска релевантных фрагментов, вставляемых в контекст перед генерацией, который обрел популярность в последние год-полтора благодаря нескольким безусловным преимуществам.

Этот подход позволяет использовать модели общего назначения на узкоспециализированных доменах без полного дообучения. Он и сейчас является самым надежным и дешевым способом снизить галлюцинации, даёт ссылки на документы и улучшает точность ответа. RAG используется в цепочке следующих логических шагов, через которые проходят данные в системе: векторизация → recall → prompt → LLM → извлечение структурированных данных.

Теперь о минусах RAG. Описанная методика только дополняет контекст модели релевантными данными, но не повышает способность самой LLM к извлечению нужных признаков. Эта способность зависит от того, каким задачам и на каких данных модель была обучена. К тому же RAG добавляет несколько архитектурных и прикладных сложностей - пайплайн с векторной базой, embedding, поиск по индексу, чанкинг данных, который может быть нетривиальным процессом с применением различных методик (таких как Semantic Chunking).

Сейчас контекстное окно модели позволяет вместить намного больше данных, чем раньше - взять хотя бы 1 млн токенов у Llama 4, так что необходимость в чанкинге и самом RAG уже не настолько острая. Есть, конечно, проблема понимания длинного контекста. Важно понимать, что при решении практических задач точность LLM может падать пропорционально длине контекста - на эту тему есть интересный бенчмарк:

Как я разрабатываю агентские ИИ системы для извлечения признаков (feature-extraction) из мультимодальных данных Искусственный интеллект, ChatGPT, Openai, Программирование, Машинное обучение, Lora, Длиннопост

Разные модели имеют разные показатели long context understanding, как видно из таблицы выше. Их точность для определенных задач можно увеличить двумя способами - SFT-файнтюнингом на размеченных данных и дистилляцией - передачей знаний от более сильной модели.

Fine‑tuning: точечное улучшение LLM

Файнтюнинг изначально был менее доступен, чем RAG - во-первых, он требует понимания того, как работает оптимизация весов большой языковой модели-трансформера (если мы не говорим про файнтюнинг каких-то других архитектур нейросетей). Во-вторых, он требует набора данных (как правило, размеченных, если мы говорим про Supervised Fine-Tuning), и в третьих, он требует вычислительных мощностей, таких как GPU-кластер.

В результате файнтюнинг позволяет настроить веса модели под конкретные инструкции, задачи, формат данных, что значительно повышает точность модели в определенном специализированном домене.

На своем опыте я сделал следующий вывод: файнтюнинг необходим для разработки агентов, особенно в области feature-extraction задач, это очень эффективная практика, которая должна быть взята на вооружение разработчиками, так как она закрывает недостатки RAG и служит необходимым компонентом прикладных ИИ систем. Перечисленные выше трудности файнтюнинга тоже постепенно решаются - во-первых, облачные провайдеры делают доступными вычислительные мощности. В моих статьях и видео достаточно гайдов по использованию облака для файнтюнинга. Чтобы экономить на GPU, по-прежнему остается актуальной методика Low-Rank Adaptation (LoRA), хотя во многих случаях и полный файнтюнинг, который модифицирует веса модели полностью, тоже возможен и оправдан. Ведь для узко специализированной задачи может быть достаточно обучить модель на совсем небольшом наборе данных - 100-500 примеров.

Динамическая квантизация в сочетании с LoRA (QLoRA) позволяет еще сильнее сократить расход видеопамяти и время обучения модели.

В целом SFT-файнтюнинг можно разделить на следующие шаги: подготовка датасета → формирование train и validation наборов → обучение → оценка. В моем последнем видео я "начал с конца" и разобрал прикладные аспекты оценки (evaluation) при разработке агентских систем. Лишь недавно я обратил внимание на библиотеки для evaluation, такие как openevals в экосистеме Langchain/Langsmith, о которых в знал и раньше, но обходился простым скриптингом. Для тех, кто только начинает знакомство с evals, будет полезен мой ноутбук с экспериментами на Langchain/Langsmith и openevals.

При подготовке данных для feature extraction важно выбрать итоговый формат данных, который будет понятен и человеку, и LLM. При небольшом объеме данных самое важное - качественные примеры ответов (output), которые готовятся обычно человеком, вручную. Это особенно актуально для специализированных случаев feature-extraction - например, если вы разрабатываете систему, которая будет читать технические спецификации изделий, товарные коды и тому подобные типы данных. Для составления такого датасета придется привлекать человека с профессиональными знаниями в соответствующем домене. А для LLM чем проще выходной формат данных, тем меньше вероятность галлюцинаций. Поэтому я руководствуюсь тремя принципами -

1. Не усложнять выходной формат данных применением, например, JSON или XML - простого текста в большинстве случаев достаточно;

2. Выполнять feature-extraction из минимальной единицы входных данных за одну генерацию. Это может быть одна PDF-страница, изображение, параграф текста;

3. Использовать Chain-of-Thoughts для валидации процесса извлечения.

Само обучение, как ни странно, вызывает меньше всего проблем - используйте готовые средства обучения библиотеки transformers или API OpenAI, контролируйте качество чекпоинтов, своевременно используя evaluation, и следите за оверфиттингом.

Distillation: перенос знания

Distillation — это обучение компактных или более слабых моделей на основе поведения более сильной LLM‑«учителя». Это еще один способ повысить качество модели, часто менее затратный, чем SFT-файнтюнинг - достаточно просто сгенерировать датасет с помощью модели-учителя, без участия человека.

Отличным практическим примером перечисленных методик может послужить исследование технологического института Джорджии, опубликованное в январе 2025.

Авторами была реализована следующая архитектура:

DistilBERT + fine‑tuning на 10 000 документов → компактная модель с эффективным временем обучения (4–9 ч на ПК) с 97% качества модели-родителя. Пайплайн извлечения признаков включал следующие шаги:

Как я разрабатываю агентские ИИ системы для извлечения признаков (feature-extraction) из мультимодальных данных Искусственный интеллект, ChatGPT, Openai, Программирование, Машинное обучение, Lora, Длиннопост
  • Сэмплинг 10k примеров из тестового корпуса (объявления вакансий) с целью извлечения признаков.

  • Разбивка на чанки с применением Semantic Chunking

  • Генерация ground‑truth с помощью LLM (Gemini).

  • Файнтюнинг DistilBERT - небольшой модели с архитектурой раннего трансформера, которая получена путем дистилляции знаний модели BERT. Дистилляция позволяет сохранить 97% процентов качества, при размере на 40% меньше, чем у исходной модели BERT

  • Prediction - извлечение признаков.

Логично предположить, что рассмотренные в этой статье методики извлечения признаков из документов можно и нужно комбинировать.

RAG — поиск релевантных фрагментов, Fine‑tuning для улучшения и стабилизации ответов модели, и Distillation в эффективной агентской системе дополняется промпт-инжинирингом и CoT, Chain‑of‑thoughts, для самовалидации системой извлеченной информации и ее автоматического итеративного приближения к ожидаемому результату.

Показать полностью 2
[моё] Искусственный интеллект ChatGPT Openai Программирование Машинное обучение Lora Длиннопост
1
5
SlyVolunteer
SlyVolunteer
2 месяца назад
Творческий инкубатор
Серия Происхождение экономических систем

Цифровая трансформация: от локальных изменений к глобальным мутациям⁠⁠

Пост с содержанием серии: Происхождение экономических систем путём естественного отбора


Цифровая трансформация стала одной из ключевых характеристик современного общества, определяющей не только способы взаимодействия людей, но и фундаментальные основы экономики, политики и культуры. Этот процесс начался с локальных изменений (внедрение персональных компьютеров и создание первых сетевых инфраструктур), но со временем эволюционировал в глобальное явление, затрагивающее все аспекты человеческой жизни. Основой цифровой трансформации стало широкое распространение интернета, рост вычислительных мощностей и появление технологий обработки больших данных, что позволило компаниям, правительствам и индивидуальным пользователям переосмыслить подходы к управлению, производству и потреблению.

Ключевым элементом цифровой трансформации стала автоматизация процессов, которая затронула не только промышленные отрасли, но и сферу услуг. Искусственный интеллект, машинное обучение и алгоритмы анализа данных создали условия для оптимизации сложных операций, повышения эффективности и сокращения издержек. Однако, несмотря на очевидные выгоды, такие изменения сопровождались серьезными вызовами, включая сокращение рабочих мест, повышение уровня социального неравенства и усиление зависимости от технологических решений. Многие профессии, считавшиеся ранее незаменимыми, были трансформированы или вытеснены новыми технологиями, что породило необходимость в адаптации рабочей силы и пересмотре образовательных подходов.

Социальные и культурные аспекты цифровой трансформации не менее значимы, чем экономические. Широкое распространение социальных сетей и платформ для обмена информацией изменило структуру коммуникации, сделав ее более горизонтальной и интерактивной. Это привело к усилению общественного контроля над политическими и корпоративными институтами, но также породило феномен фейковых новостей и манипуляций общественным мнением. Более того, рост зависимости от цифровых технологий вызвал вопросы о правах на приватность, защите данных и этике использования искусственного интеллекта.

Глобализация, стимулируемая цифровой трансформацией, проявилась в формировании новых экономических связей и торговых маршрутов, а также в появлении транснациональных корпораций, чья деятельность распространяется по всему миру. Эти компании, например, Google, Amazon и Alibaba, формируют глобальную инфраструктуру, управляя данными, коммуникациями и финансами, что значительно усилило их влияние. Однако доминирование таких игроков также стало предметом дебатов о монополии, налоговой политике и справедливости распределения ресурсов.

Цифровая трансформация: от локальных изменений к глобальным мутациям Научпоп, Эволюция, Исследования, Политэкономия, Экономика, Наука, Автор, Большие данные, Анализ данных, Искусственный интеллект, Машинное обучение, Глобализация

Таблица иллюстрирует ключевые изменения, связанные с цифровой трансформацией

Цифровая трансформация, несмотря на все свои противоречия, остается движущей силой глобальных изменений. Она требует комплексного подхода, который учитывает не только технологический прогресс, но и социальные, культурные и этические аспекты. В конечном итоге, успех трансформации будет определяться способностью человечества использовать ее плоды для общего блага, минимизируя при этом негативные последствия.


Предыдущий пост: Промышленная революция: взаимодействие инноваций и социальных преобразований

Продолжение: Взаимосвязь кризисов и инноваций: модели ускоренного роста

Этот пост входит в Часть 8. Влияние мутаций: инновации и кризисы

Роль технологических, социальных и финансовых кризисов в преобразовании экономических систем. Анализ примеров внезапных изменений, таких как Великая депрессия, промышленная революция и цифровая трансформация.

Научпоп-серия Происхождение экономических систем путём естественного отбора


Пожалуйста, поставьте плюс данному посту для поддержки Творческого инкубатора и постов о науке в нём. Для тех, кто впервые слышит о нашем сообществе авторского контента, подробная информация в посте Ответ на пост «Нужен ли на Пикабу авторский контент, и если нужен, то какой и когда? Несколько вопросов к аудитории»

Показать полностью 1
[моё] Научпоп Эволюция Исследования Политэкономия Экономика Наука Автор Большие данные Анализ данных Искусственный интеллект Машинное обучение Глобализация
0
Партнёрский материал Реклама
specials
specials

Доклады про ИИ, робофайтинг и экстремальные челленджи. Подключайтесь к True Tech Day!⁠⁠

Смотрите прямую трансляцию — весь день куча айтивностей на любой вкус. Доклады от сорока российских и зарубежных спикеров, челлендж по взлому главного компьютера Tesla Model Х, мастер-класс по использованию киберотмычек, битва радиоуправляемых роботов и многое другое (все легально!). А еще афтепати с музыкальными хедлайнерами. Присоединяйтесь онлайн 6 июня с 10:00 и до позднего вечера. Подробное расписание тут →

Реклама ПАО «МТС», ИНН: 7740000076

Искусственный интеллект Технологии Айтишники IT Машинное обучение
4
Вопрос из ленты «Эксперты»
karim.benzema
karim.benzema
3 месяца назад

Курсы инженер машинного обучения⁠⁠

Всем привет. Хочу получить новую, возможно полностью перейти, ну или совместить - профессию "инженер машинного обучения. С чего начать? Курсы на skillbox? Кто прошел подобный путь, поделитесь пожалуйста опытом. Мне 36 лет, юрист (на данный момент практикую интеллектуальную собственность, в т.ч. авторское право на программы для ЭВМ), работаю в IT компании.

Нейросети такое же неизбежное как интернет, будет везде и всюду, нужно быть в теме. Да и в целом юриспруденция поднадоела, нужно внести в неё что-то новое или уходить)

Образование Учеба Нужен совет Машинное обучение Нейронные сети Вопрос Спроси Пикабу Текст
2
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии