zwuck

На Пикабу
Дата рождения: 11 ноября
107 рейтинг 14 подписчиков 4 подписки 35 постов 0 в горячем
Награды:
10 лет на Пикабу
4

Новостной дуйджест. Часть вторая. Величавая

Продолжаем рубрику технических новостей прошедшей (и не только) недели. Ну ничего с этим не поделать, опять этот ваш ИИ. Часть первая для ознакомления.

От Figma до Spotify: в ChatGPT появились сторонние приложения.

Ссылка. OpenAI представила Apps SDK для ChatGPT — инструментарий, который позволит сторонним разработчикам добавлять свои приложения. Пользователи получат доступ к сервисам, которым уже привыкли пользоваться — достаточно использовать свой логин и пароль прямо в чате. Среди приложений, которые были показаны в демонстрации: Coursera, Spotify, Figma, Canva, Zillow. Доступ пользователей к приложениям начнут открывать с сегодняшнего дня (раскатка может занять определенное время), а разработчики начнут получать доступ к SDK и опциям монетизации.

Мюсли. А вот это интересное и, с моей точки зрения, абсолютно правильное направление развития для компании OpenAI. Вау эффект уже давно прошел, пятая версия языковой модели GPT-5 не произвела такого впечатления, как это было с предыдущими версиями. Обычного генератора текста, даже достаточно «умного», уже недостаточно. Именно поэтому создаются новые продукты, где языковая модель выступает в роли промежуточного, но «умного» звена/посредника, что должно привести к более понятному, быстрому и удобному взаимодействию с такими продуктами. Ниже пример с Figma.

Пример работы с Figma, на входе диаграмма, нарисованная от руки, на выходе готовая диаграмма

Пример работы с Figma, на входе диаграмма, нарисованная от руки, на выходе готовая диаграмма

AgentKit: единая среда от OpenAI для создания и тестирования собственных агентов.

Ссылка. До сегодняшнего дня сборка и запуск AI-агентов напоминала джунгли. Разработчики метались между десятками несовместимых SDK, кастомных пайплайнов и ручных интеграций. Построить надёжного агента значило неделями клеить код, чинить баги в оркестрации и постоянно балансировать между скоростью и качеством. Теперь OpenAI предлагает другой путь — AgentKit, набор инструментов, который объединяет в себе всё, что раньше требовало десятков фреймворков и недель настройки.

Мюсли. Как и с любой другой областью, которая относительно недавно появилась, до языковых моделей дошли стандарты. В общем и целом, это безусловно win, так как значительно упрощает процесс разработки (все стандартизировано же) и добавляет большое количество документации и, в будущем, гуидов (обожаю гуиды на ютубе, особенно от индусов).

Ваб сарвар версус апликейшн сарвар

Ваб сарвар версус апликейшн сарвар

GPT-OSS теперь можно запустить на топовых Android-смартфонах.

Ссылка. Команда Nexa AI добавила в свое приложение Nexa Studio версию GPT-OSS, оптимизированную для запуска на топовых Android-смартфонах. Модель уже доступна в приложении, весит 10 ГБ, а для запуска требуется смартфон с 16 ГБ памяти и передовой процессор. В Nexa AI протестировали GPT-OSS на смартфоне ASUS ROG 9 с процессором Snapdragon Elite Gen 5, получив следующие характеристики: время до получения первого токена — 3 секунды, скорость генерации — 17 токенов в секунду.

Мюсли. На хабре пишут, что языковая модель GPT-OSS-20b как раз и затачивалась под возможность запуска на смартфонах. Наш дорогой Сэм мать его Альтман для этого опрос проводил в этих ваших интернетах.

Результаты опроса

Результаты опроса

Так что новость является закономерным развитием жизненного цикла языковой модели и это, определенно, круто. Правда не представляю, какое время жизни телефона будет и его нагрев, жесть жеж наверное.

Из веселого. Или не очень. Полиция США попросила подростков прекратить розыгрыши с участием дипфейка бездомного.

Ссылка. В TikTok завирусился новый тренд: подростки используют технологии искусственного интеллекта, чтобы создавать дипфейки бездомного человека в своих домах, а затем показывают эти изображения родителям. Несколько таких розыгрышей закончились приездом полиции. Теперь правоохранители просят подростков воздержаться от подобного поведения.

Мюсли. Не такого применения ИИ я ожидал, определенно. А хотя, это как с любой технологией, можно использовать для создания чего-либо «хорошего», а можно в противоположность ему. Стоит хотя бы на Sora 2 посмотреть, где генерируют видео с умершими людьми (часто знаменитостями) и отправляют родственникам.

Да, это жжоска

Да, это жжоска

Ну а так вроде все пацаны и пацанята, пацантре и пацанини. Ну и не забываем, я разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Twittly_bot/twittly. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 4

Языковые модели. Что тебе в имени MoE-м

В предыдущей статье (ссылка) я писал о локальном запуске языковых моделей и был приятно впечатлен на собственном опыте.

Реально каеф

Реально каеф

К сожалению, у локального запуска языковых моделей есть несколько неприятных моментов:

  • Требования к объему оперативной памяти, как к обычной, так и графической. Поясню, при работе, языковая модель выгружается в оперативную память и, например, для gpt-oss-20b (20 миллиардов параметров, достаточно «умная» модель) требуется порядка 12 гигов такой памяти. И данная проблема вполне решаема, ведь стоимость оперативной памяти не заоблачная и даже многие ноутбуки в стоке уже идут с 16 гигами памяти;

  • Скорость генерации токенов. Поясню, по факту, это та скорость, с которой будет генерироваться текст. И проблема здесь следующая, чем больше модель, тем больше оперативной памяти она потребляет и тем меньше скорость генерации текста. Если объем оперативной памяти мы можем наращивать в достаточно широком диапазоне, то скорость генерации токенов/текста упирается в скорость самой оперативной памяти.

Оба этих момента являются критически важными, при локальном запуске языковых моделей, ведь мы всегда ограничиваемся характеристиками существующего компьютера (в отличие от крупных корпораций, которые за несколько миллионов, а то и миллиардов, баблинского приобретают, по сути, суперкомпьютеры).

Клятые корпорации

Клятые корпорации

Умным дядькам (это точно не я) такая ситуация определенно не нравилась, и они пришли к элегантному решению, а именно, к MoE – Mixture of Experts, то есть «смесь экспертов». Если кратко, то MoE— это подход в машинном обучении, где большая языковая модель делится на несколько специализированных "экспертов" (подмоделей), каждый из которых хорошо справляется с определёнными типами задач или данных. Вместо того чтобы активировать всю модель целиком (что дорого по вычислительным ресурсам), используется "маршрутизатор" — специальный механизм, который для каждого входа (например, запроса) выбирает только 1–2 релевантных эксперта.

Ну нипанятна жи

Ну нипанятна жи

Смотрите, все достаточно просто, в этом (ссылка) новостном дуйджесте я писал про новые языковые модели от IBM. Нас сейчас интересует модель Granite 4.0 H Small (32B/9B). У этой модели 32 миллиарда параметров, что потребует порядка 16-18 гигов оперативной памяти, но при этом во время ответа активно только 9 миллиардов параметров, что сильно положительно скажется на скорости генерации текста. Например, gpt-oss-20b, при работе на CPU, выдает порядка 8-10 токенов в секунду, в случае же Granite 4.0 H Small (32B/9B) можно надеяться на удвоение скорости, а 20 токенов в секунду уже не воспринимается как скорость улитки.

Ну а так вроде все пацаны и пацанята, коты и котанята. Надеюсь, стало немножечко понятнее, что вообще в этом мире происходит. Ну и не забываем, я разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Twittly_bot/twittly. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 2
2

Новостной дуйджест. Часть первая. Важная

Собрал наиболее интересные новости прошедшей недели (не только) в мире технологий. Мир меняется стремительно, и я ваш гуру на этом пути.

Тащемта я

Тащемта я

OpenAI готовится к запуску рекламы в ChatGPT.

OpenAI готовится к серьёзному повороту в стратегии — в ChatGPT могут появиться рекламные форматы. По данным источников, новый директор по приложениям компании, Фиджи Симо, начала поиски топ-менеджера, который возглавит блок монетизации. В его задачи войдёт развитие подписок, а также создание и внедрение рекламных инструментов в продуктах OpenAI, включая ChatGPT.

Мюсли. Вполне ожидаемо, OpenAI нужно зарабатывать, ибо поддержание инфраструктуры требует большого количества ресурсов, а потока баблинского от инвесторов и платных подписок может не хватить на все те грандиозные планы, которые OpenAI собирается реализовать.

А без них никуда, увы

А без них никуда, увы

OpenAI запустила продажи товаров через ChatGPT.

Ссыль.  OpenAI добавила в ChatGPT функцию реальных покупок. Теперь прямо в диалоге с ботом пользователи могут заказывать товары, без переходов на внешние сайты. Пока что эта возможность работает только в США и ограничена интеграцией с Etsy, но OpenAI уже заявила о планах расширять географию и подключать новые торговые площадки.

Мюсли. OpenAI все больше и больше откусывает функционал классических поисковых систем. Хорошо это или плохо, покажет время, но идея мне, определённо, нравится. Вообще хорошо заметна тенденция, что языковые модели из чисто «чатного» формата пытается стать полноценным и полезным инструментом (кто сказа агенты?).

Вышла Sora 2 от OpenAI.

Ссыль. OpenAI выпустила Sora 2 — второе поколение своей модели для генерации видео. Обновление заметно усиливает контроль пользователя над контентом и приближает синтетическое видео к реальности. В Sora 2 улучшена физика: объекты ведут себя естественно, не плавают и не искажаются при взаимодействии, что раньше было одной из главных проблем. Появился синхронный звук — теперь можно задавать диалоги, шумы окружения и музыку, и всё это будет совпадать с действием в кадре. Sora 2 станет основой нового приложения Sora App. По сути, это социальная сеть по типу Tik Tok: есть лента с вертикальными видео, возможность публиковать собственные ролики, лайкать, репостить и комментаровать чужие видео, а также делать на них ремиксы.

Мюсли. Впечатляет, прогресс конечно жеж, пока, ошеломительный. Посмотрим по итогу куда все это привет, а пока то тут, то там появляются новости о том, что хотят «снять» полноценное кино с использованием нейросетевых инструментов по генерации видео. Опять же, вкупе с предыдущими новостями, видно, как OpenAI пытается стрелять во всевозможные направления, так как, похоже, мы достигли плато текущего развития языковых моделей и совершенствовать их дорого и бесмысленно.

Granite 4: IBM представила линейку маленьких, но шустрых LLM.

Ссыль. Пока OpenAI, Anthropic и Meta меряются миллиардами параметров, IBM внезапно решила сыграть в другую игру, представив Granite-4.0 — набор маленьких, но шустрых LLM.

Вместо гигантов под сотни миллиардов параметров, IBM выкатила:

  1. Micro (3B) — ультралёгкий вариант, легко запуститься на ноутбуке.

  2. Tiny (7B/1B активных) — компактный MoE, экономит память и токены.

  3. Small (32B/9B активных) — самая большая из линейки, но всё равно «малышка» по сравнению с топовыми LLM.

Мюсли. В данной статье (ссылка) я писал о своем опыте запуска локальных языковых моделей и был приятно впечатлен. Поэтому такого вида новости мне очень нравятся. Если версии Micro и Tiny для решения широкого круга задач не очень подходят (тупенькие еще), то версия Small вполне себе показывает хорошие результаты, особенно по бенчмаркам. А еще хорошо, что наконец-то снова появились новости про компанию IBM, а то она в какой-то момент вообще пропала с новостных радаров, а ведь в свое время имела шикарный научный и практический потенциал.

Ну а так вроде все пацаны и пацанята, пацантре и пацанини. Ну и не забываем, я разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Twittly_bot/twittly. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 2
1

Языковые модели. Локально. Без мам, пап и кредитов

Я уже писал про языковые модели чутка (Сторонние сервисы на страже вашего приложения. Про языковые модели. Часть кватро, финальная в текущем цикле). Настало время продолжить данное направление и поведать вам про локальный запуск языковых моделей.

Льзя!!!

Льзя!!!

Смотрите, существующие большие языковые модели, доступные в браузере (chatgpt, claud, grok, gemini и т.д.), обладают большим количеством параметров (сотни миллиардов) и для своей работы требуют производительное железо с большим (не просто большим, а огромным) количеством постоянной, оперативной и графической памяти. Для питания таких компьютеров/серверов/чего-то_там в асашай даже специально электростанции планируют строить. И тут может возникнуть вопрос, а есть ли возможность запустить языковые модели локально, то есть на своем компьютере/сервере, чтобы всегда был доступ и полностью контролировать весь процесс? Ответ будет «льзя».

Ну нравится мне этот мем

Ну нравится мне этот мем

Как итог, здравствуйте модели семейства gemma, qwen, phi, llama и т.д. Из теории это все, го к практике.

Для «общения» с языковыми моделями вам необходимо специализированное ПО, среди наиболее известных это LM Studio, Ollama и Docker model runner. Я непосредственно работал именно с LM Studio, поэтому про нее и буду в дальнейшем писать. После установки и запуска вы увидите следующее.

Далее нам понадобится непосредственно сама языковая модель, которая будет крутиться у нас на компьютере, поэтому идем в поиск.

Вот они, красивые

Вот они, красивые

Сейчас отображаются те модели, которые мой текущий компьютер (слабенький ноут 2020 года) вообще позволит запустить, в основном критерием является объем оперативной памяти, ведь именно в нее будет в дальнейшем загружена модель. Чтобы понять, сколько оперативной памяти потребуется, посмотрите на вес самой модели.

Ну 3 гига как постоянной, так оперативной памяти у меня будет

Ну 3 гига как постоянной, так оперативной памяти у меня будет

После запуска модели по запросу «напиши пузырьковую сортировку на раст» получил следующее.

Но это же питон, дружаня

Но это же питон, дружаня

Скорость получилась порядка 4 токенов в секунду, что совсем не быстро, и много времени заняли размышления, ведь модель reasoning. На другом, более производительном железе, для модели gpt-oss-20b удалось на CPU получить порядка 8-10 токенов в секунду, а в случае использования GPU скорость была порядка 40 токенов в секунду, что уже позволяет достаточно оперативно использовать модель для достаточно широкого круга задач. И я вам скажу, что это реальный каеф, когда видишь, как моделька пишет тебе, а доступ к интернету отсутствует, магия, йопт.

Каеф

Каеф

Ну и конечно же, о преимуществах локального запуска, смотрите:

  • Доступ. Для общения с языковой моделью в браузере в чате (или по апи) вам в обязательном порядке нужен этот ваш энторнет и прямой доступ к серверам (которого может не быть из-за разного вида ограничений/блокировок). При локальном запуске у вас должен быть только доступ к самому компьютеру;

  • Приватность. Как говорится «Если вы не платите за товар, значит вы и есть товар». Вся информация, которая была использована вами при общении с языковой моделью не просто могут, а будут использованы для извлечения выгоды компаниями разработчиками языковых моделей (или будут перепроданы рекламщикам и т.д.);

  • Ограничения. У большого количества больших языковых моделей в бесплатных версиях (не у всех) есть ограничения по количеству запросов. Если сейчас ограничений нет, не исключено, что будут в будущем. Для локальной языковой модели такой проблемы не наблюдается;

  • Стоимость. При использовании локальной языковой модели вы непосредственно никому не платите, да, есть проблема в покупке производительного железа, но в большинстве своем такие компьютеры приобретаются для других задач (если вы понимаете о чем я))) ).

Ну как-то так, да

Ну как-то так, да

Ну а так вроде все пацаны и пацанята. Ну и не забываем, я разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Twittly_bot/twittly. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 8
4

Про git и инструменты работы с ним. Часть вторая. Красивая

Тутачки (ссылка) я изволил поведать Вам, судари и сударинки о штуке, под названием git/гит. В продолжении я обещал Вам рассказать про команды и веб сервисы, ведь так?

Ведь так?

Ведь так?

В первой части я уже говорил про ветки (branch), так вот, если есть необходимость перейти/перепрыгнуть на данную ветку, например, чтобы запустить код с новым функционалом, вы просто выполняете команду checkout (если совсем быть точным, то git checkout имя_ветки). Двигаемся дальше, следующей базовой командой у нас является git pull, которая позволяет «подтянуть» изменения из удаленного репозитория (об этом чуть позже) и автоматически подтянуть их в вашу ветку.  Например, вы в вашей ветке доработали код, сообщили об этом руководителю/приятелю/тимлиду/CEO/CTO/собачке, после чего изменения вливаются в ветку с базовым проектом (будем называть ее main ветка). Теперь, чтобы именно у вас в main ветке все эти изменения отобразились, вы делаете на нее checkout и выполняете pull.  И наоборот, чтобы изменения, которые вы внесли в ветку, увидели другие участники вашей команды, вам необходимо их «затолкать» на удаленный репозиторий (падаждити, всему свое время, расскажу, что да как с этим удаленным репозиторием). По сути, эти базовые команды покрывают большую часть необходимого и повседневного функционала, так что для начала, вам этого будет более чем достаточно. Для меня уж точно.

Моя работа с гит

Моя работа с гит

Давайте дальше. Смотрите, гит по сути хранит код и историю его изменения. Поэтому желательно, чтобы это хранилище находилось где-то, где каждый участник команды сможет иметь доступ, чтобы отправлять туда (push) и забирать оттуда (pull) актуальные изменения. Так вот, это место и является тем самым удаленным репозиторием. Некоторые умные люди подсуетились и создали веб-ресурсы (сайты) которые и выполняют роль этих удаленных репозиториев.

Одним из самых популярных веб-ресурсом, который предоставляет функционал удаленного репозитория для гит, является github.

Моя активность на гитхаб в 2023 году

Моя активность на гитхаб в 2023 году

Да, в 2023 году я был хорош.

Как же я был хорош…

Как же я был хорош…

Из чистого сервиса, поддерживающего гит, гитхаб превратился в нечто болmшее. Это стало целым сообществом, безусловно прикрутили CI/CD (более подробно напишу в следующих статьях), copilot (об этом не напишу, не пробовал) и многое многое.

Таксист/пчеловод/пловец/мистер галактика врать не будет

Таксист/пчеловод/пловец/мистер галактика врать не будет

Gitlab (гитлаб) и gitea (гити ака гит чай) почти полностью повторяют базовый функционал для работы с гит. Но плюсом, чтобы быть конкурентоспособными, добавили возможность для self-hosted (тож обязательно напишу об этом статейкус), когда вы на вашем компьютере/vps/малинке (тута я писал про малинку и гит чай) разворачиваете данный сервис и самостоятельно все контролируете, не боясь, что вам по какой-то причине ограничат доступ к сервису.

Ну а так вроде все пацаны и пацанята, я так-то иссяк и поток моего сознания окончился. Ну и не забываем, я разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Twittly_bot/twittly. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 4
0

Про git и инструменты работы с ним. Часть первая. База. Это надо знать

Ну шо, настало время ребятки и рябятессы рассказать вам про распределенную систему управления версиями git/гит.

Готовътесъ судари

Готовътесъ судари

Если вы, судари, немного балуетесъ программированием (да, есть такие индивиды) в гордом одиночестве и в вашем проекте совмещаете должность мидла/техлида/CEO/бубео/секретарши и уборщицы, то вы можете обойтись без этого вашего гита. Я так делал, было дело. Теперь представим, что у вас появился единомышленник.

Но давайте все-таки представим

Но давайте все-таки представим

Вы вместе с вашим единомышленником (хах) работаете над единой кодовой базой, но, допустим, над разными модулями. Как в этом случае синхронизировать изменения кода между вами? Можно скидывать друг другу файлы, в которых произошли изменения. И да, это даже будет работать (и так я тоже делал). Давайте теперь представим, что появились файлы, в которые оба вносят изменения, и количества таких файлов множится, в течении развития проекта. Просто перекидываться файлами уже становится сложнее, причем сложность растет нелинейно. Появление еще одного разработчика-единомышленника еще сильнее усложнит процесс синхронизации изменений проекта и в какой-то момент это все превратиться просто в лютый кошмар.

Поддерживаю

Поддерживаю

Программисты люди ленивые, и это хорошо, поэтому лишнюю, особенно сложную, работу не любят. Именно поэтому были изобретены инструменты управления версиями, одним из которых как раз и был гит. Интересный факт, автором гита был не безызвестный Линус мать его Торвальдс.

Линус негодуэ на Хуана

Линус негодуэ на Хуана

При использовании гита синхронизация никуда не пропадает, просто делать это становится сильно проще. Вот как-то так в свое время выглядела история разработки проекта при использовании гит.

Это что, ветки метро?

Это что, ветки метро?

Как ни странно, аналогия с метро вполне приемлема, ведь, как и в метро, в гит есть ветки (тадам!!!).  Не буду вдаваться в дебри терминологий объяснения работы гит, просто кратенько опишу, какой практический результат вы имеете. Вот есть вас 3 разработчика в команде, каждый работает над своим модулем, и чтобы ваши изменения кода не оказывали эффект на начальный код, вы как раз и создаете ветку (branch), которая на рисунке выше представлена линией с определённым цветом. Чтобы отслеживать изменения кода вы периодически создаете коммиты (commit), узлы/точки на рисунке выше, которые по факту являются «слепком» (читал когда-то на хабре статью про гит, где именно такое определение давалось для коммита, мне понравилось) текущего состояния проекта в вашей ветке и пишите комментарий того, что именно вы сделали. Как итог, при нажатии на коммит вы видите комментарий, файлы, которых коснулись изменения, и непосредственно сами изменения.

И зачем я его удалил интересно…

И зачем я его удалил интересно…

Теперь представим, что какой-то модуль был полностью написан и нам необходимо изменения в вашей ветке внести в ветку, где находится базовый проект (да, для него тоже по умолчанию создается ветка). Для этого вы просто выполняете процедуру слияния (merge) веток и решете возникшие конфликты (если такие есть конечно). И все, ваше базовый проект обновлен, в нем появился код и функционал из другой ветки.

А на этом пока все, первая часть финит. В следующей части затрону другие базовые команды гит (pull, push, checkout и т.д.), а также рассказу про веб-сервисы, которые поддерживают гит и добавляют свои приятности в работу.

Ну и не забываем, я жеж вайб-мать-его-кодер и разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Socionyx_Bot/socionyx. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 6
5

Raspberry Pi. От любви до ненависти и обратно. Часть третье. Прозрение и возвращение к истокам

Такс-такс-такс, шо тут у нас, сначала признавался к любви к малинке (тыц), а потом набросал говна на вентилятор (тыц) и доволен?

Не совсем

Не совсем

Давайте для начала определим, являются ли эти минусы (тыц) настоящими минусами или я просто накидал фекалий на лопасти (да/нет). Для начала поясню, что я имею ввиду под «настоящими минусами». Смотрите, любой минус чего-либо, хотите вы этого или нет, это всегда субъективная оценка. Давайте на собственном примере. Я с детства был пк-боярином.

Да начнется…

Да начнется…

Как итог, не плохо так стал разбираться в устройстве компьютера, несколько раз производил минорные апгрейды и вообще был счастлив. Консоли для мены были чем-то далеким и невозможность пресловутого апгрейда я, безусловно, рассматривал как жырнющий минус. А сейчас знаете, что произошло? Я сам стал консольщиком, а если быть совсем честным, то нинтендо боем.

Только это был первый сыч

Только это был первый сыч

Это не была спонтанная покупка, я взвесил для себя все за и против. Как итог, все минусы (почти) консолей просто перестали для меня быть минусами. Я брал сыч под конкретные задачи, а именно, возможность поиграть где угодно и когда угодно, как только такая минутка подвернется, и сыч эту задачу решает идеально.

Очевидно же)))

Очевидно же)))

Так вот, давайте вернемся обратно к малинке. Я брал ее для решения конкретных задач, пытался состряпать собственный сервер, чтобы раскатывать на нем self-hosted решения, дабы минимизировать зависимость от облачных провайдеров. И с этой задачей малинка идеально (почти) справляется. Мало оперативной памяти? Установил версию операционной системы без графического интерфейса, потребление памяти базовыми процессами минимально и достаточно высокая скорость работы (не путать с производительностью). Дорогие комплектующие? На начальном этапе они и не нужны. Даже активного охлаждение не нужно, у меня малинка пассивно охлаждалась, и температура только в редких моментах достигала значения в 70 градусов, по цельсию каэш. Стоимость? Да, чуть выше, чем аналогичный по характеристикам мини-пк (в чистой производительности мини-пк, безусловно, будет выигрывать в чистую), но взамен вы получаете огромное сообщество энтузиастов, которые разобрали большинство «проблем» малинки и долгосрочную поддержку. Малинка просто работает, просто работает из коробки. Минимально возможный размер, отсутствие шума (ведь нет движущихся частей), минимальное энергопотребление (а вот это преимущество arm архитектуры процессора). Иногда я вообще забывал, что малинка находится у меня на столе.

Выводы будут простые, пацантре и пацантрята, никогда не надо в лоб сравнивать (например, чистую производительность по бенчмаркам) вещи (будь то консоли/пк, каркасный/газобетонный дом, iOS/андроид и т.д.), надо обязательно учитывать совокупность факторов (как минимум бюджет) и то, как вы это будете использовать и какие задачи необходимо решать.

Ну и не забываем, я разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Socionyx_Bot/socionyx. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 3
3

Raspberry Pi. От любви до ненависти и обратно. Часть вторая. Про ненависть (нет)

Такс-такс-такс, шо тут у нас, малинка? Наканецта!!!

В первой части, тпрунькь, я написал, что приобрел малинку и для каких задач использовал. Первое впечатление было абсолютно положительное, но, с течением времени, появились и недостатки, давайте к ним и перейдем.

Карта памяти.

Да, по умолчанию, вы приобретаете отдельно карту памяти для своей малинки и используете ее в качестве постоянного хранилища. Вроде все просто и понятно, но есть пара моментов, карта памяти это не hdd/ssd и она обладает гораздо, ГОРАЗДО худшими характеристиками, особенно, если это касается надежности.

Надежно, как швейцарские часы

Надежно, как швейцарские часы

Arm архитектура центрального процессора

Архитектура процессора, который стоит в малинке, не та же самая, что в твоем компьютере (ака x86/amd64), только если ты не используешь современные эпловские компьютеры, а такая же, что и в твоем смартфоне или планшете. Как результат, приложение, написанное под x86/amd64 не запустится на малинке (и наоборот). Получается, что огромный (почти бесконечный) пласт приложений под винду и линукс просто не запустятся (эмуляторы я не рассматриваю, даже не знаю, есть ли они под малинку) и вам необходимо искать/использовать специализированные приложения. Именно поэтому я установил gitea, а не gitlab, так как gitlab просто не было под малинку.

На этом наши полномочия все

На этом наши полномочия все

Стоимость

На маркетплейсах за сопоставимую стоимость можно приобрести мини пк с лучшими характеристиками: процессор n95/n100/n150, 8 гигабайт оперативной памяти и 256 гигабайт ssd и виндоус в придачу. Вы получаете мощнее железо и возможность запускать почти весь существующий софт для настольных компьютеров. При этом, некоторые перекупы могут завышать стоимость малинки в несколько раз.

Все очень плохо

Все очень плохо

Периферия

Хотите корпус для своей малинки? Плати денежку. Охлаждение в виде вентилятора или радиатора? Плати денежку. Память? Плати денежку. И так далее, причем, стоимость иногда такой периферии может быть не дешевой. Мини пк же сразу из коробки будет полностью готов. Включил и работает.

Дай

Дай

Вот как-то так, пацантре и пацантрины, а также котаны и котанины. В следующей части напишу, что позволило мне пересмотреть подход к малинке и снова полюбить ее.

Ну и не забываем, я разработал чат-рулетку в виде мини-приложение в telegram, как говорится welcome t.me/Socionyx_Bot/socionyx. Затестите, вам не сложно, мне приятно!!!))).

Ссылка на мой telegram канал t.me/socionyxchannel, you are welcome too, где я пишу про будни разработчика.

Показать полностью 4
Отличная работа, все прочитано!