Привет, я — Вадим. Недавно рассказывал, как делал WhammyD — педальки-контроллеры для Digitech Whammy. Это была весёлая история, но закончилась она остановкой проекта, потому что устройства были, прямо скажем, мало кому нужны.
Это Neko — устройство для музыкантов и любителей, чтобы сделать гитару great again
Эта статья о новом проекте — Neko. Это гаджет, чтобы каждый человек мог кайфануть от игры на гитаре, реализовать свои музыкальные идеи и почувствовать себя музыкантом, даже если на это остаётся 15 минут после рабочего дня.
TL;DR
Расскажу, как и почему изменился подход к созданию устройства. Откуда взялась идея, и как из идеи придумался продукт. С какими новыми вызовами пришлось столкнуться. Как вокруг продукта собралась команда и появилась компания. Как делаем железо, пишем софт, договариваемся с партнёрами и планируем запуск.
Немного добавим эпичности, оно того стоит
Возможно, кому-то будет интересен наш опыт, чтобы заняться своим проектом. А кто-то просто покекает с рассказа, потому что наш путь явно не идеален. Энивей, буду рад, если статья покажется полезной или просто весёлой.
Ну поехали.
Почему изменился подход
Признаюсь, работа над WhammyD2 обнажила не только мои технические пробелы, но и полное непонимание, как вообще делать IT-продукты. Тогда, например, я не отличал бэкенд от фронтенда, не знал, зачем система версионирования кода, и не подозревал о профессии продакт-менеджера (это чел, который говорит разработчикам, что надо делать).
Приняв свою ущербность, поскрежетав зубами и возмущённо пофыркав на досуге, поморщился и принял, что это надо как-то решать.
Сказано-сделано: научился прогать под iOS и устроился в 2ГИС, поучаствовал в хакатонах, а потом и вовсе плавно стал тем самым продактом. Запустил пяток проектов, переехал в Москву, и начал в Big Tech запускать AI-hardware устройства на международном рынке. На это ушло почти 10 лет.
Это мы на Хакатоне 2ГИС с приложением, которое находило следующий самый подходящий бар для бар-хоппинга, а в конце вызывало такси домой. Было легендарно
Казалось бы, успешная карьера, крутой проект на работе, почёт и уважение. Но тот фан от работы над WhammyD2 не оставлял в покое. Хотелось сделать какую-то необычную музыкальную коробку, которая бы вернула тот угар, но при этом имела шансы самоокупиться и не зачахнуть. А попутно возродила бы эпоху, когда быть гитаристом было круто.
Играть рочину вообще-то реально весело и круто
Самое главное — чтобы не повторить судьбу WhammyD2, устройство должно подходить не только профессиональным музыкантам, но и любителям музыки, которые с её помощью ощутили бы, насколько круто музыку создавать. Это и голове помогает развиваться, и чувствовать себя счастливее.
Идея такой коробки всё не приходила. То и дело выскакивали разные предположения, но подумав о них чуть тщательнее, отказывался от них одна за другой, ментально навесив ярлык «булшит».
Но в итоге, кое-что нащупал.
Если ты не очень умный, приходится думать 10 лет
Учиться на работах приходилось интенсивно, рока стало меньше. И в какой-то момент обнаружил, что из гастролирующего музыканта превратился в того самого чувака с гитарой, висящей на стене, и тренькающей на неподключенной дай бог полчаса в неделю.
Это я лечу из командировки и думаю, с каким кайфом поиграю на гитаре
Кроме гитары, у меня есть куча гитарного оборудования, накопившегося за годы рока, чтобы заставить её звучать круто — процессоры, аудио-карты, педальки. Даже любимый Marshall JCM900 стоит в углу.
И вроде бы вот хочется прийти после работы и 15 минут покайфовать от игры на инструменте. Но ради этих минут подключать процессор-комбик-аудио-карту лень — поэтому, бренчу на неподключенной.
И регулярно раз в неделю в voice memo айфона записываю очередной гениальный рифф, который никогда не превратится в трек.
А вот был бы такой карманный девайс, который решит задачи:
Нужно, чтобы гитара легко подключалось. Вот так же, как AirPods мы в уши втыкаем, только пусть радио-джеки (это разъём, через который электрогитара передаёт звук) включаются в гитару
Нужно, чтобы звук гитары был крутой. Вот чтобы на уровне топовых процессоров — Fractal, Neural DSP, Kemper, etc. Говнозвуком играть неохота. Проще на неподключенной повысекать
И чтобы оно записывало мой рифф, и превращало в готовую аранжировку в нужном стиле. Сейчас же век генеративок, полюбому так можно
Тот самый JCM900 и 412 кабинет. Точнее, 312, потому что на одном из концертов один динамик был пробит бутылкой. Кабинет после этого заиграл ещё лучше
Эти мысли и стали отправной точкой для идеи Neko.
Инициирующее событие
В общем, загрустил я. Ходил-думал в голове идею, но ничего с ней не делал. Звучало это, если честно, немного фантастично.
Грустил так до судьбоносной беседы с Лёшей — экс-руководителем, нанимавшим меня в Яндекс. Он давно живёт за границей, и как-то спросил, знаю ли я Кена Шафера? Ведь Кен — его сосед. Типа, может вас познакомить?
Ангус и Кен в инстике
Знаю ли я Кена Шафера? Кен — легенда. Он изобрёл гитарную радиосистему — это когда звук гитары передаётся по радио, а не по проводу. И, например, фирменный звук Ангуса Янга из AC/DC — как раз из-за этой системы. Ангус даже на записи её использовал.
Так в моей голове выглядел Neko в самом начале
Хмм.. Раз 50 лет назад Ангус предпочитал радиосистему проводу, может быть, и есть смысл поработать над Neko, как над удобным аналогом провода на современных компонентах? Так я стал не только думать, но и что-то делать над Neko.
Эволюция идеи
Вместо того, чтобы сразу хвататься за паяльник, как было с WhammyD, хотелось как-то заранее понять — а не ерунду ли я придумал? Может, это вообще никому не надо?
На сленге продакт менеджеров, эта стадия работы над продуктом называется «customer development». Звучит заумно, но фактически это означает, что я начал рассказывать об идее всем вокруг, кто хоть сколько-то в теме игры на гитаре.
На работе — от продактов и жутко опытных стратегов с опытом работы в Apple. До членов гильдии композиторов Новой Зеландии, и технических директоров популярных русских рэперов — за пивком.
Интервью проходили в разной обстановке
— Кароче, Вадос, говно твоя идея. Надо, понял да, чтобы это был такой гитарный бро, который тебе идейки подкидывает — Твой бизнес не в этом. Эта штука может привлечь на рынок новую аудиторию? — А можно сделать так, чтобы оно в реал-тайме помогало Металлику играть, типа как esp на машине ездить помогает?
Сотня-другая бесед, и рассказ об устройстве становился чуть убедительнее, короче и понятнее. Так я повторял, пока слушатель стабильно не начал спрашивать, где это купить вот прямо сейчас.
Как это всё визуализировалось в голове. Почему-то у меня почерк врача
Параллельно погуглил, что новенького появилось на рынке — что за устройства, сколько стоят. Ну и на интервью мне накидали фактуры. Так стало примерно ясно, с чем наша железяка будет конкурировать.
Из этого родился вижен продукта, что именно за функции хочется сделать:
Радио-джеки, которые не будут теряться, зато будут всегда заряжены и готовы к игре
AI-аранжировщик, который из моих сыгранных кривой рукой риффов будет создавать готовые мульти-трек аранжировки в нужном стиле и с нужным настроением — как мне захочется
Процессор эффектов с ядром на Neural Amp Modeler — это open source технология, широко поддерживаемая сообществом. Это как цифровые копии звучания усилителей или других устройств, и гитарных колонок-кабинетов
Стем-рипер. Это абсолютно уникальная штука, чтобы играть любимые песни с любимыми артистами. Передаём с телефона по Bluetooth на Neko трек, там он в реал-тайме пилится на дорожки, размечается в MIDI и табы, чтобы можно было его легко выучить. Ну и дальше из микса убираем оригинальную партию гитары, рубим сами
Time Machine. Пусть все мои занятия пишутся и размечаются на сыгранные риффы, чтобы потом я в любой момент мог зайти и вспомнить, что там был за угарный риффчик
All-in-one device. Ну и чтобы эта штука заменила мне вообще все остальные устройства — от кабеля и тюнера-метронома, до рекордера и аудиокарты. Чтобы не таскать за собой тяжеленные кофры на репетиции — кинул в карман и го
Описание аранжировщика на ранних этапах
Собрал pdf-ку с описанием функций — ну типа сайт. Показал друзьям, позадавал вопросы — идеи оценили, цену устройства от балды назвали, она попала в мои ожидания.
Вот таким был сайт в pdf, много мучали формулировки, и до сих пор мучаем
Сайт, понятно, что ещё 10 раз поменялся. Он, кстати, здесь: https://neko.engineering В общем звучит это всё классно, а как теперь это сделать то. Есть прям пара нюансов.
Пара нюансов
WhammyD была сделана мной вручную от первых прототипов до наполнения сайта. Neko же так сделать невозможно. Это сложное устройство, которое должно быть произведено на фабрике, чтобы обеспечить работу закладываемых в него функций.
Чтобы его создать, одной моей головы не хватит — нужен целый штат разработчиков. Если просто нанять этих ребят, сделать устройство, и запустить его в продажу, то экономика такая:
Год работы крепкой команды человек из 8 — $500k, если повезёт.
На закупку прототипов отлетит $20-50k
Сбор данных, разметка и обучение моделей — не меньше $100k
Запуск конвейера — ещё $500k
В общем, где-то $1,5M в разработку и конвейер. Это значит, если продать 10 000 устройств, в каждом будет заложено $150 только затрат на разработку.
Фааантазёр, ты меня называла! Только такие строки пел себе в голове, пока растягивал эксельку бизнес-модели
А ведь его ещё и произвести надо (купить запчасти и материалы, собрать устройства, упаковку, мануалы, сделать сертификацию), и продать (затраты на маркетинг, логистику, хранение, поддержку и т.д.).
Звучит как-то сложно и не радужно. Ну ок, это же не повод портить себе настроение, или, не дай бог, отказываться от идеи. Надо подумать и есть слона по частям.
Едим слона
План простой и прямолинейный — нужно сделать так, чтобы вокруг продуктовой идеи возникла и бизнес-идея — прикинуть пределы роста бизнеса, как он появится, как будет расти и развиваться.
Если предложение будет интересным и правдоподобным, можно найти бабки, ведь идея устройства — огонь! Ну и именно растущий бизнес сделает возможность создать и поддерживать продукт = исправить ошибку WhammyD, ради чего весь сыр-бор.
Не самый свежий, зато бесплатный, отчёт NAMM с поправкой на возраст и состояние рынка дал ключевые инсайты. Очевидно, запускаться надо в США. Очевидно же?
Прикинул объём рынка, конкурентное окружение, экономику, траекторию роста компании. Связал ключевые шаги бизнеса с шагами развития продукта. Порассказывал это умным дядькам, разбирающимся в бизнесе, маркетинге, построении компаний, сделал корректировки на их критику.
Набросал каптейбл (это план, сколько и для чего денег нужно), план реализации проекта, прозрачное предложение для всех участников — инвесторов, ключевых сотрудников, себя самого.
Вот, например, каптейбл. Правда, он довольно секретный — всё сплошь под NDA (Non-Disclosure Agreement, аналог «Совершенно Секретно» в корпоративном мире)
Собрал всё в кучу в единую презентацию с описанием идеи, бизнеса, продукта и уникальной комбинации всего этого. Презентацию показал друзьям-спецам в нужных сферах. Так собралась проектная команда супер-героев.
Заглавная страничка презентации, ну красота же! Хотя, слова на ней менялись ещё не единожды 😂
Её же показал технологическим партнёрам и фондам. Так появились, собственно, партнёры, поверившие в нашу способность сделать интересную штуку. Нашли в Китае фабрику, которая согласилась нам помочь.
Это наш лид инженер на фабрике в Китае. Как вы понимаете, кое-что придумать удалось
Партнёры и фабрика дали толчок по технологиям, компетенциям и бюджету. Не миллион баксов, конечно, но работать можно.
Начали сразу с нескольких сторон: дизайн, инженерка, тестирование ценности продукта.
Дизайн и прототипы
Сначала попросил знакомых ребят-промышленных дизайнеров помочь понять, как вообще должно выглядеть устройство. Это был свободный поиск почти без ограничений по сравнению с тем, с чем мы столкнулись дальше.
Вот такой был прикольный вариант
Ребята проделали очень классную работу, предложили несколько направлений развития прототипов, продумали разные сценарии использования в реальных условиях. Через несколько итераций мы пришли к приоритетному варианту, который захотелось уточнять.
Вот это мне понравилось больше других
Напечатали его на 3Д-принтере, чтобы покрутить в руках, понять, как вообще это будет работать в реальной жизни.
Прикольный корпус. Но, кроме всего прочего, смахивает на электронную сигу
Получилось прикольно, но что-то не то. Самое сложное было — разорвать связь курицы и яйца, когда дизайнеру нужно знать, из каких компонентов будет состоять устройство (какой будет экран, кнопки, масса аккумулятора и т.д.). А инженеру нужно было знать, в какой корпус нужно вписывать электронику.
Доработанный арт-директором вариант выше. Кое-что изменилось
Параллельно начали прорабатывать UI — что именно будет нарисовано на экране. Эта работа тоже итеративная, где всё от всего зависит — функции устройства от экрана и контролов, экран от функций и процессора, процессор от функций, контролов и периферии, и всё это зависит от цены, которая зависит от функций.
Как выглядит божественный, самый лучший, высший UI? Вот так!
Итеративно отсекали лишнее, добавляли нужное, уточняли возможности инженерии. Основываясь на наработках корпуса выше, нарисовали новые обводы корпуса, которые уже вот прям нравились. Осталось только понять, какой будет финальный размер, и как тушка устройства будет сопрягаться с радиомодулями — джеками.
Было сразу несколько картонных Неко
Тут неожиданно случилась одна из самых горячих внутренних баталий — отталкиваться от размеров 5- или 3,5-дюймового экрана. Спорили-спорили, но разрешилось через склеивание нескольких прототипов из картона, и верчения их в руках. Там стало всё ясно.
В сотый раз всё перерисовали, сделали модельку, напечатали на принтере — вроде кайф
Так появился вижен корпуса, а вместе с ним концепция контролов и UI экрана, попутно уточнили ключевые компоненты. И вот вроде бы и всё более-менее срослось. У нас есть корпус, UI, требования к железу и вообще — готовый девайс, осталось реализовать.
Это самое лучшее, что я когда-либо видел
Параллельно начали реализовывать продуктовые и технологические прототипы.
В следующей части:
— Прототип генеративки, и как мы поняли, что он — огонь! — Прототипы устройства: процессор, радио, софт — MVP, EVT, DVT и другие слова из трёх букв — И куда всё это едет
Спасибо за прочтение первой части ^__^
———
UPD: Простите, что не влезла вся статья разом. На Пикабу есть ограничение в 25 медиа (картинок и видео) на пост.
Вторую часть уже готовим к публикации, думаю, будет через пару дней.
Как оживить фотографию онлайн с помощью искусственного интеллекта? Читайте нашу максимально полную инструкцию по превращению ваших фотографий в короткое видео!
Актуальность: 23 октября 2025
У каждого из нас есть фотографии, которые хотелось бы превратить в видео, сделать живыми. Я потратил несколько недель, тестируя все популярные нейросети для оживления фото. Загружал снимки разного качества — от чётких портретов и скриншотов из интернета до размытых групповых фото 1960-х годов. Результат? Половина сервисов — пустышки с красивой оберткой и громкими обещаниями. Но есть и те, что реально работают, такие, что нейросеть оживляет фото очень качественно.
В этой статье — только проверенные инструменты, которые превращают статичные фотографии в видео с морганием, улыбками и поворотами головы. Плюс готовые промты на русском языке, чтобы не гадать, что писать.
Без воды, без пафоса — только практика.
Спойлер: самым удобным для пользования оказался российский сервис-агрегатор топовых нейросетей >>> Study AI <<<.
Почему Study AI? 1) Не нужен VPN
2) Есть бесплатный пробный тариф 3) Можно платить любыми российскими картами 4) Быстрая генерация
5) Много преднастроенных моделей под самые ходовые задачи
ТОП-12 нейросетей для оживления фото
Какая же нейронка, которая оживляет фото, лучше всех? Пришлось тестировать каждый сервис на одних и тех же фотографиях: современное фото, скачанное из интернета, чёткий портрет анфас, групповое фото, старый чёрно-белый снимок 1960-х. Вот что получилось.
Топовые универсальные сервисы
1. Veo 3 — лучшее качество на рынке
Что это:Veo 3 -— новейшая нейросеть от Google DeepMind, анонсированная в 2025 году. Первая модель, которая создаёт видео со встроенным синхронизированным звуком.
Как работает: Загружаешь фото → пишешь промт (или оставляешь автоматический режим) → через 2-3 минуты получаешь видео до 8 секунд в 4K.
Что я тестировал: Портрет девушки с нейтральным выражением.
Промт: "Добавь естественную улыбку, лёгкое моргание, поворот головы вправо". Результат — плавные движения, без артефактов, с фоновым звуком (тихая музыка).
Промты на русском:
"Лёгкая улыбка, медленное моргание, взгляд в камеру"
"Радостная улыбка, естественная мимика, глаза следят за зрителем"
Где доступно: Через агрегаторы Study24 и Chad AI (доступ без VPN)
Скорость: 2-3 минуты Цена: Платная подписка (доступ через Study24/Chad AI) Качество: 5/5 Для кого: Тем, кто хочет максимальное качество для соцсетей или бизнеса
Плюсы:
Лучшее качество анимации на рынке
Нативный звук (не нужно добавлять отдельно)
Разрешение до 4K
Понимает промты на русском через агрегаторы
Плавные переходы без рывков
Минусы:
Только платный доступ
Требует стабильный интернет
Обработка занимает 2-3 минуты
2. Pika / Pika Labs — быстро и красиво
Что это: Нейросеть, оживляющая фото, популярный онлайн-сервис, запущенный в 2024 году. Специализируется на быстрой генерации коротких видео из фото.
Как работает: Регистрируешься → загружаешь фото → выбираешь тип анимации (автоматический или с промтом) → через 30-60 секунд готово.
Что я тестировал: Старое групповое фото. Промт: "Люди общаются и смеются, естественные движения". Все лица ожили одновременно, мимика синхронная. Качество чуть хуже Veo 3, но для соцсетей отлично.
Промты на русском (через переводчик):
"Человек смотрит в камеру, естественная мимика"
"Добавь энергичную улыбку и движение головы"
"Спокойное выражение, медленные движения"
Где доступно: Сайт pika.art, мобильное приложение (iOS)
Скорость: 30-60 секунд Цена: Бесплатно 2 видео/день, подписка от $8 Качество: 4/5 Для кого: Для быстрых задач и контента для TikTok/Reels
Плюсы:
Очень быстрая обработка
Бесплатные попытки каждый день
Простой интерфейс
Можно добавить текстовый запрос
Липсинг (синхронизация губ с речью)
Минусы:
Англоязычный интерфейс
Ограничение 2 видео в день на бесплатном тарифе
Длина видео всего 3-4 секунды
3. Runway (Gen-2, Motion Brush) — для перфекционистов
Что это: Профессиональный видео-редактор с ИИ. Инструмент Motion Brush позволяет оживлять только выбранные участки фото.
Как работает: Загружаешь фото → выделяешь кистью участок, который нужно оживить (глаза, волосы, фон) → задаёшь направление движения → генерация.
Что я тестировал: Портрет с развевающимися волосами. Оживил только волосы и глаза, остальное оставил статичным. Получился эффект как в кино — волосы на ветру, взгляд следит за зрителем.
Промты на русском:
"Оживи только глаза и губы, остальное статично"
"Волосы развеваются на ветру, лицо неподвижно"
"Взгляд персонажа медленно движется вправо"
Где доступно: Сайт runway.ml, доступ через Study24
Скорость: 1-2 минуты Цена: 105 секунд бесплатно, потом от $12/месяц Качество: 5/5 Для кого: Блогеры, кинематографисты, профессиональный контент
Плюсы:
Точный контроль над анимацией
Можно оживить только часть изображения
Профессиональное качество
Используется в реальном кино
Минусы:
Сложный интерфейс для новичков
Дорогая подписка
Требует времени на обучение
4. Kling 2.1 — кинематографическое качество
Что это:Kling (Клингаи) — качественная нейросеть от китайских разработчиков. Создаёт видео с плавностью, близкой к профессиональной киносъёмке.
Как работает: Загрузка фото → автоматическая генерация или с промтом → видео с премиум-анимацией за 2-4 минуты.
Что я тестировал: Свадебное фото. Промт: "Влюблённая пара смотрит друг на друга, романтическая атмосфера". Движения получились максимально плавными, как в настоящем фильме. Детали лица проработаны отлично.
Скорость: 2-4 минуты Цена: Платная подписка через агрегаторы Качество: 5/5 Для кого: Для качественного контента, рекламы, презентаций
Плюсы:
Премиум-качество анимации
Плавные переходы и движения
Поддержка больших изображений
Высокая детализация
Минусы:
Интерфейс на английском/китайском
Долгая обработка
Только платный доступ
5. Luma AI Dream Machine — 3D-магия
Что это: Сервис, который превращает 2D-фото в 3D-видео с эффектом параллакса.
Как работает: Не оживляет мимику в классическом смысле. Вместо этого создаёт эффект «живого пространства» — камера вращается вокруг объекта, показывая глубину.
Что я тестировал: Старый снимок городской улицы с людьми. Результат — фото стало объёмным, камера плавно двигается, создавая эффект присутствия. Люди на фото тоже слегка двигаются.
Промты:
Не требуются — работает автоматически по 3D-шаблону
Скорость: 3-5 минут Цена: Бесплатно с вотермаркой, от $5 за 4K Качество: 4/5 (для 3D-эффектов) Для кого: Для необычных эффектов, презентаций, креативного контента
Плюсы:
Уникальный 3D-эффект
Подходит для фотореставрации
Используется в кино и рекламе
Добавляет глубину старым фото
Минусы:
Не оживляет мимику лица
Требует мощного устройства для рендера
Долгая обработка
Русскоязычные агрегаторы
6. Study24 — всё в одном месте
Что это: Российская платформа-агрегатор с доступом к Veo 3, Runway, Kling и другим моделям ИИ.
Как работает: Один сайт → все нейросети → единая подписка. Не нужно регистрироваться на десятке сайтов и покупать отдельные подписки.
Что я тестировал: Переключался между разными моделями на одном фото. За 10 минут проверил Veo 3, Kling и Runway. Удобно сравнивать результаты.
Промты: На русском языке, поддержка текстовых и голосовых запросов
Скорость: Зависит от выбранной модели Цена: Платная подписка, есть бесплатный тест Качество: 5/5 (зависит от модели) Для кого: Тем, кто хочет доступ ко всем топовым нейросетям сразу
Плюсы:
Все модели в одном месте
Русский интерфейс
Без VPN
Оплата российскими картами
Голосовой ввод промтов
Постоянно добавляются новые модели
Минусы:
Платная подписка
Нет бесплатного тарифа (только тест)
7. Chad AI — русская экосистема
Что это: Упрощённый аналог Study24, русский сервис с доступом к Veo 3, Luma Ray, Runway, Kling и текстовым моделям (GPT-5, Claude).
Как работает: Похож на Study24, но попроще и не такой быстрый.
Что я тестировал: Голосовой ввод промта: "Оживи фото, добавь улыбку". Через 2 минуты готовое видео.
Скорость: 2-4 минуты Цена: Платная подписка, есть бесплатный тест Качество: 5/5 Для кого: Для комплексной работы с контентом
Плюсы:
Глубокая проработка лиц и мимики
Русский интерфейс
Подходит для соцсетей и бизнеса
Оплата СБП и российскими картами
Без VPN
Минусы:
Требует стабильный интернет
Платная подписка
Медленный
Специализированные сервисы
8. Deep Nostalgia (MyHeritage) — для семейных архивов
Что это: Один из первых сервисов для оживления фото, запущенный в 2021 году. Работает на базе нейросети D-ID. Специализируется на портретах.
Как работает: Заходишь на сайт → загружаешь портретное фото → нейросеть автоматически оживляет лицо → готовое видео за 30-60 секунд.
Что я тестировал: Старое чёрно-белое фото 1960-х. Никаких промтов писать не нужно — сервис работает автоматически. Результат: лёгкое моргание, небольшой поворот головы, едва заметная улыбка. Качество базовое, но для старых портретов отлично подходит.
Промты: Не требуются — работает только в автоматическом режиме
Скорость: 30-60 секунд Цена: Несколько фото бесплатно, потом подписка от $5 Качество: 3/5 Для кого: Для оживления старых семейных портретов
Плюсы:
Очень простой интерфейс
Быстрая обработка
Русский язык интерфейса
Отлично работает со старыми фото
Не нужны промты
Минусы:
Только портреты (не работает с группами)
Базовая анимация без сложных движений
Ограниченное количество бесплатных попыток
Может работать некорректно из-за блокировщиков рекламы
9. Immersity AI (бывший LeiaPix) — 2D в 3D за минуту
Что это: Онлайн-сервис, который превращает плоские фотографии в объёмные 3D-видео с движением камеры.
Как работает: Загружаешь фото → нейросеть анализирует глубину → создаёт видео, где камера вращается вокруг объекта. Не оживляет мимику, а добавляет эффект объёма.
Что я тестировал: Пейзажное фото с человеком на переднем плане. Результат: картинка стала трёхмерной, камера плавно двигается слева направо, создавая ощущение живого пространства. Человек тоже слегка "отделился" от фона.
Промты: Не поддерживаются — работает по единому 3D-шаблону
Скорость: 2-5 минут (рендеринг) Цена: Бесплатно до 720p, от $5 для 4K Качество: 4/5 (для 3D-эффектов) Для кого: Для креативных проектов, необычных эффектов
Плюсы:
Уникальный 3D-эффект параллакса
Работает с любыми фото (не только портреты)
Можно добавить саундтрек из Apple Music
Хорошо справляется с пейзажами
Минусы:
Не оживляет мимику лица
Долгий рендеринг (до 5 минут)
Требует хорошее качество исходника
Бесплатная версия с вотермаркой
10. Hailuoai — для ленивых (в хорошем смысле)
Что это: Простейший сервис для быстрого оживления фото. Загрузил — получил результат. Никаких настроек.
Как работает: Один клик — готовое видео. Можно добавить промт для уточнения, а можно оставить всё на автомате.
Что я тестировал: Селфи с нейтральным выражением. Загрузил без промта — через 20 секунд получил видео с лёгким морганием и улыбкой. Качество среднее, но для быстрых задач подходит идеально.
Скорость: 20-30 секунд Цена: Бесплатно с ограничениями Качество: 3/5 Для кого: Для быстрого тестирования, новичков
Плюсы:
Максимально простой интерфейс
Очень быстрая обработка
Работает без регистрации (с ограничениями)
Подходит для начинающих
Минусы:
Базовое качество анимации
Ограниченный контроль над результатом
Короткие видео (3-5 секунд)
11. Remini — восстанови, потом оживи
Что это: Мобильное приложение, которое совмещает реставрацию старых фото и оживление.
Как работает: Загружаешь размытое или повреждённое фото → нейросеть сначала восстанавливает качество (убирает шум, повышает резкость, раскрашивает) → потом оживляет с анимацией лица.
Что я тестировал: Старое размытое фото 1950-х годов. Сначала Remini сделал его чётким и цветным, потом добавил моргание и улыбку. Двойной эффект — одновременно реставрация и оживление.
Промты: Не поддерживаются — автоматический режим
Где доступно: Приложение для iOS и Android
Скорость: 1-2 минуты (реставрация + оживление) Цена: Бесплатно с ограничениями, подписка от $5 Качество: 4/5 Для кого: Для восстановления и оживления старых повреждённых фото
Плюсы:
Реставрация + оживление в одном приложении
Качество на уровне кино
Удаляет царапины, шум, размытие
Раскрашивает чёрно-белые фото
Быстрое создание видео
Минусы:
Ограниченный доступ без подписки
Водяной знак на бесплатных роликах
Работает только на мобильных устройствах
Мобильные приложения
12. Motionleap — ручная магия в телефоне
Что это: Приложение от Lightricks для ручной анимации фотографий. Ты сам решаешь, что двигается, а что остаётся статичным.
Как работает: Загружаешь фото → рисуешь стрелками направление движения → выделяешь статичные области → нейросеть создаёт анимацию по твоим указаниям.
Что я тестировал: Пейзажное фото с водопадом и облаками. Указал движение воды вниз, облаков вправо, человека оставил неподвижным. Получился эффект как в синемаграфе — часть кадра живая, часть замороженная.
Промты: Не требуются — ручное управление стрелками
Где доступно: App Store (iOS), Google Play (Android)
Скорость: Зависит от сложности (1-3 минуты) Цена: Бесплатно с ограничениями, подписка от 599₽ Качество: 4/5 Для кого: Для креативной анимации, синемаграфов, необычных эффектов
Плюсы:
Полный контроль над анимацией
Можно оживить любую часть изображения
Эффекты неба, воды, огня
Работает с пейзажами и портретами
Световые эффекты (конфетти, блики)
Экспорт в формате MP4 до 1080p
Минусы:
Требует времени на настройку
Сложнее, чем автоматические сервисы
Качественный результат требует практики
Большинство функций — платные
Бонус: дополнительные сервисы
Kaiber AI — стилизованная анимация
Что это: Создаёт видео из фото с возможностью выбора художественного стиля.
Особенности: Можно выбрать стиль: реалистичный, мультяшный, нарисованный, киберпанк и другие. Видео получается 4-5 секунд с активной анимацией.
Цена: 80 кредитов после регистрации, потом платно Для кого: Для креативных экспериментов, арта
PixVerse — видео на базе Gen-2
Что это: Онлайн-платформа, использующая модель Gen-2 от RunwayML. Создаёт видео с реалистичной анимацией и сменой ракурсов.
Особенности: Хорошо работает с портретами и изображениями людей. Добавляет глубину резкости и кинематографические эффекты.
Цена: Бесплатное тестирование, потом подписка Для кого: Для качественного контента, презентаций
Что вообще такое «оживление фото» и как это работает
Когда загружаешь снимок в нейросеть для оживления фото, система делает несколько вещей одновременно:
Анализирует изображение — распознаёт лица, черты, положение головы
Строит 3D-модель — превращает плоское лицо в объёмное
Добавляет движения — моргание, улыбку, повороты головы
Создаёт видео — рендерит короткий ролик (обычно 3-8 секунд)
Технология называется motion transfer — нейросеть переносит движения с шаблонного видео на твоё фото. Алгоритмы обучены на миллионах изображений и видео с разными выражениями лиц.
Что можно оживить
Работает отлично:
Портреты анфас (лицо прямо в камеру)
Старые чёрно-белые фото
Селфи и групповые снимки
Свадебные и семейные фотографии
Работает хуже:
Профильные фото (лицо сбоку)
Размытые или сильно повреждённые снимки
Фото с несколькими лицами в кадре
Рисунки и арт (зависит от сервиса)
Не работает:
Пейзажи без людей
Фото животных (большинство сервисов)
Абстрактные изображения
Что получается на выходе
Современные нейросети оживляют фото так, что человек на снимке:
Моргает — естественно, без рывков
Улыбается — от лёгкой улыбки до широкой
Поворачивает голову — влево, вправо, к камере
Меняет выражение — от серьёзного до радостного
Дышит — лёгкое движение тела (в продвинутых сервисах)
Результат — короткое видео в формате MP4 или GIF, обычно 3-8 секунд.
Технология без занудства
Большинство сервисов используют GAN (Generative Adversarial Networks) или diffusion-модели. Звучит сложно, но работает просто:
GAN — две нейросети соревнуются. Одна генерирует движения, другая проверяет, насколько они реалистичны. Так получается естественная анимация без артефактов.
Diffusion-модели — более новая технология (2024-2025). Работает медленнее, но качество выше. Используется в Veo 3, Pika, Runway.
Не нужно разбираться в технологиях, чтобы оживить фото нейросетью онлайн. Главное — выбрать подходящий сервис и правильно написать промт (если требуется).
Зачем вообще оживлять фотографии
Сначала я думал, что это просто развлечение. Но когда попробовал оживить старые семейные снимки, понял — это больше, чем игрушка.
Практические применения
Личное использование:
Оживить старое фото из семейного альбома
Создать уникальную открытку для родственников
Сохранить воспоминания в новом формате
Удивить друзей «живыми» снимками из прошлого
Для соцсетей и блогов:
Контент для Instagram Reels, TikTok, YouTube Shorts
Короткие видео для Telegram-канала
Вирусный контент с высокой вовлечённостью
Stories и посты с анимированными фото
Бизнес и реклама:
Анимированные портреты для сайтов
Рекламные материалы с живыми персонажами
Презентации и обучающие материалы
Исторические проекты и музейные экспозиции
Реставрация:
Восстановить повреждённые снимки
Раскрасить чёрно-белые фотографии
Улучшить качество старых карточек
Сохранить историю семьи в цифровом виде
Почему это работает
Искусственный интеллект для оживления фото решает проблему «мёртвых» снимков. Статичное изображение — это застывший момент. А видео — это эмоция, движение, жизнь.Когда видишь, как человек на старой фотографии моргает или улыбается, мозг воспринимает это как реальное воспоминание. Не просто картинка из прошлого, а кусочек живой истории.Плюс это работает для вовлечения в соцсетях. Анимированные фото привлекают внимание в 5-10 раз сильнее статичных. Люди останавливаются, смотрят, сохраняют, делятся.
Как писать промты, чтобы нейросеть тебя поняла
Промт — это текстовый запрос для нейросети. От того, как ты его напишешь, зависит результат.
Три правила хорошего промта
Первое правило — конкретика вместо общих фраз. Не пиши "сделай красиво" или "оживи как надо". Пиши: "добавь лёгкую улыбку и медленное моргание". Второе правило — используй глаголы действия: моргнуть, повернуться, посмотреть, улыбнуться, наклонить. Третье — добавляй эмоции и детали: радостно, задумчиво, медленно, естественно, в сторону камеры.
Структура идеального промта
Формула проста: [Действие] + [Эмоция/Характер] + [Детали]. Например: "Лёгкая улыбка, медленное моргание, взгляд в камеру" или "Поворот головы влево, задумчивое выражение, естественные движения".
Готовая библиотека промтов на русском языке
Для портретов (крупный план)
Нейтральные варианты: "Лёгкая улыбка, медленное моргание, взгляд в камеру" работает почти всегда. Можно пробовать: "Спокойное выражение лица, естественное дыхание, взгляд вдаль" или "Серьёзный взгляд, минимальные движения, лёгкий поворот головы". Если нужно задумчивое настроение: "Задумчивое выражение, медленный поворот головы вправо".
Позитивные промты добавляют энергии. Используй: "Тёплая улыбка, частое моргание, радостное выражение" для дружелюбного эффекта. Более активный вариант: "Широкая улыбка, активная мимика, весёлый взгляд". Для нежности: "Нежная улыбка, мягкий взгляд, движение глаз вправо" или просто "Радостная улыбка, глаза следят за зрителем".
Эмоциональные промты усиливают характер. Попробуй: "Удивлённое выражение, поднятые брови, лёгкий поворот" или "Вдохновение, взгляд вверх, лёгкая улыбка". Для концентрации: "Сосредоточенность, серьёзный взгляд, минимальные движения". Мечтательный вариант: "Мечтательное выражение, взгляд в сторону, медленное моргание".
Для групповых фото
Групповые снимки лучше оживлять через динамику общения. Базовый промт: "Люди общаются и смеются, естественные движения". Более тонкий вариант: "Друзья смотрят друг на друга, лёгкие улыбки" или "Живая беседа, моргание, небольшие повороты головы". Для семейных фото: "Семья улыбается в камеру, естественная мимика". Активная сцена: "Группа людей разговаривает, синхронные движения" или "Компания веселится, активная мимика, смех".
Для старых чёрно-белых фото
Старые снимки часто требуют восстановления плюс анимации. Комплексный промт: "Восстанови качество, добавь лёгкую улыбку и моргание". Для атмосферности: "Старинное фото, мягкие движения, ностальгическая атмосфера" или "Винтажный снимок, аккуратное моргание, поворот головы". Простой вариант: "Реставрируй и оживи, добавь тёплое выражение лица". Исторический контекст: "Историческое фото, естественная мимика, плавные движения" или "Чёрно-белое фото, добавь цвет и движение".
Для портретов в профиль
Профильные снимки сложнее оживить, но можно. Используй: "Медленный поворот лица к камере, лёгкая улыбка" — классический вариант. Минималистичный: "Взгляд в сторону, едва заметное движение головы". Динамичный: "Поворот от профиля к анфасу, естественная мимика". Художественный: "Боковой портрет, лёгкое движение, взгляд вдаль".
Для детских фото
Детские снимки требуют особой энергетики. Подходят промты: "Детская улыбка, весёлое выражение, игривое моргание" для радостных моментов. Любопытство: "Любопытный взгляд, поворот головы, интерес в глазах". Активная сцена: "Радостный смех, активная мимика, естественные движения". Сюжетный вариант: "Ребёнок смотрит на игрушку, удивлённое выражение". Для энергичных фото: "Детское веселье, энергичная мимика, широкая улыбка".
Для свадебных фото
Свадебные снимки нуждаются в романтике. Базовый промт: "Влюблённый взгляд, нежная улыбка, романтическая атмосфера". Для пары: "Счастливая пара смотрит друг на друга, лёгкие движения". Торжественный момент: "Свадебный портрет, торжественное выражение, лёгкая улыбка". Лирический вариант: "Нежность в глазах, медленные движения, романтика" или "Жених и невеста улыбаются, счастливое выражение".
Теперь вы точно знаете, как оживить фото с помощью искусственного интеллекта
Анти-промты: чего НЕ писать
❌ Слишком общие фразы бесполезны. Нейросеть не поймёт запросы вроде "сделай красиво", "оживи как надо", "добавь эмоций" или "сделай интересно". Это пустые слова без конкретики.
❌ Противоречивые команды запутают алгоритм. Не пиши "улыбается и плачет одновременно", "смотрит влево и вправо", "радостный и грустный вместе" или "быстро и медленно моргает". Нейросеть не экстрасенс.
❌ Перегрузка деталями тоже вредит. Промт "поверни голову на 37 градусов влево, подними правую бровь на 2 мм, добавь улыбку шириной 5 см, моргни 3 раза в секунду" — это не инструкция для робота. Пиши проще.
❌ Ошибки и опечатки мешают пониманию. Проверяй текст перед отправкой. "Добфь улыпку" или "повирни галаву" — нейросеть может неправильно интерпретировать.
Лайфхаки по промтам
✅ Начинай с простого. Сначала напиши базовый промт ("лёгкая улыбка"), посмотри результат. Если не нравится — добавь детали. Не пытайся сразу написать идеальный запрос на 20 слов.
✅ Меньше часто лучше. Если нейросеть делает странный результат — убирай детали из промта. Иногда автоматический режим работает лучше твоих уточнений.
✅ Для старых фото добавляй "восстанови". В начале промта пиши: "Восстанови качество, потом добавь...". Это помогает нейросети понять, что нужна предварительная обработка.
✅ Сохраняй удачные промты. Создай текстовый файл с работающими формулировками. Когда будешь оживлять следующее фото — просто скопируешь готовый промт и слегка изменишь.
✅ Используй голосовой ввод. В Study24 и Chad AI можно надиктовать промт голосом. Это быстрее печати и часто удобнее, особенно на мобильном.
✅ Копируй чужие промты. Смотри примеры в галереях сервисов — многие пользователи показывают, какой промт использовали. Учись на чужом опыте.
Пошаговая инструкция: как оживить фото за 5 минут
Шаг 1: Выбери подходящую фотографию
Идеально работает портрет анфас (лицо прямо в камеру) с контрастным фоном, хорошим освещением и разрешением от 800×800 пикселей. Подойдёт групповое фото, лёгкий профиль (не строго сбоку), старые чёрно-белые снимки и селфи. Хуже работает очень размытые фото, сильно повреждённые снимки, лица сбоку (профиль 90°) и очень тёмные фотографии.
Совет: Если фото плохого качества — сначала пропусти через Remini для реставрации, потом оживляй.
Шаг 2: Выбери сервис под свою задачу
Для быстрого старта на русском языке без VPN используй Study24 (все модели в одном месте). Для новичков лучше Hailuoai (проще всего) или Deep Nostalgia (для старых портретов). Для качества бери Veo 3 (лучшее на рынке) или Kling 2.1 (кинематографический уровень). Для контроля подходит Runway (можно оживить только часть фото) или Motionleap (ручная анимация). Для соцсетей идеально Pika (быстро и красиво) или Veo 3 (максимальное качество для TikTok/Reels).
Шаг 3: Загрузи фото
Подходят форматы JPG и PNG. Размер файла лучше держать до 10 МБ (оптимально 2-5 МБ). Рекомендую разрешение 1920×1080 или меньше. Не грузи оригинал в 50 МБ прямо с камеры — сожми до стандартного размера через любой онлайн-компрессор. Обработка будет быстрее.
Шаг 4: Напиши промт (или оставь автоматический режим)
Если сервис поддерживает промты — используй готовые формулы из раздела выше. Начни с простого: "Лёгкая улыбка, моргание". Если результат не нравится — уточни промт. Если сервис работает автоматически (Deep Nostalgia, Hailuoai, Immersity AI) — просто загружай фото, промты не нужны.
Шаг 5: Запусти генерацию
Время обработки зависит от сервиса. Быстрые (20-60 секунд): Pika, Deep Nostalgia, Hailuoai. Средние (1-3 минуты): Veo 3, Runway, Remini. Медленные (3-5 минут): Kling 2.1, Luma AI, Immersity AI. Главное — не обновляй страницу во время генерации, иначе потеряешь результат и придётся начинать заново.
Шаг 6: Скачай результат
На выходе получишь MP4 (стандартное видео) или GIF (анимация). Бесплатные версии обычно дают HD (720p-1080p) с вотермаркой (водяным знаком). Платные — до 4K без водяных знаков. Скачал — сразу сохрани на диск. Многие сервисы хранят результаты только 24 часа.
Частые ошибки новичков
Плохое качество исходника — это ошибка номер один. Загрузил размытое фото — получил пластилиновое лицо. Решение: сначала восстанови через Remini, потом оживляй.
Ожидание чуда тоже проблема. Нейросети добавляют лёгкие движения (моргание, улыбка), а не полную анимацию танца или акробатики. Не жди, что бабушка на фото начнёт танцевать вальс.
Слишком общий промт бесполезен. Написал "сделай круто" — нейросеть в недоумении. Используй конкретные команды: "лёгкая улыбка, моргание".
Игнорирование формата файла создаёт проблемы. Загрузил фото в TIFF или RAW — сервис не принял. Конвертируй в JPG или PNG перед загрузкой.
Обновление страницы во время генерации убивает результат. Нажал F5 — потерял всё. Жди, пока генерация закончится. Займись другими делами, но не трогай браузер.
Сравнительная таблица: все 12 сервисов
Честный рейтинг приложений, оживляющих фото
FAQ — ответы на частые вопросы
Можно ли оживить любое фото? Да, но лучше всего работают портреты анфас. Пейзажи без людей и абстрактные изображения не оживить. Животных — зависит от сервиса (большинство не поддерживают).
Сколько времени занимает оживление одного фото? От 10 секунд (Hailuoai, Pika) до 5 минут (Kling 2.1, Immersity AI). В среднем 1-3 минуты.
Можно ли оживить фото бесплатно? Да. Почти все сервисы дают бесплатный тестовый период или базовый тариф. Pika — 2 видео в день бесплатно. Deep Nostalgia — несколько попыток. Hailuoai — полностью бесплатный (с ограничениями качества).
Нужна ли регистрация? Большинство сервисов требуют регистрацию через email или Google-аккаунт. Исключения: Hailuoai (можно без регистрации, но с ограничениями), некоторые Telegram-боты.
Можно ли оживить рисунок или картинку? Да, некоторые нейросети умеют. Pika, Runway, Kaiber AI работают с иллюстрациями. Результат зависит от стиля рисунка — реалистичные работают лучше мультяшных.
Безопасно ли загружать личные фото в нейросети? Серьёзные сервисы соблюдают политику конфиденциальности. Читай условия использования перед загрузкой. Рекомендую не загружать паспорта, документы и очень личные снимки в бесплатные боты — только в проверенные платформы.
Что делать с водяным знаком? Либо платить за подписку (водяной знак убирается), либо смириться. Большинство бесплатных тарифов добавляют вотермарку. Пытаться удалить программами — нарушение условий использования.
Можно ли использовать оживлённые фото для бизнеса? Смотри условия лицензии каждого сервиса. Некоторые (Study24, Chad AI, Runway) разрешают коммерческое использование при платной подписке. Бесплатные версии обычно только для личного пользования.
Почему результат получился странный или жуткий? Три причины: плохое качество исходника (размытое, повреждённое), слишком сложный промт (нейросеть запуталась), неподходящий тип фото (строгий профиль, лицо закрыто волосами). Решение: улучши фото через Remini, упрости промт или попробуй другой сервис.
Какой сервис лучший? Зависит от задачи. Для новичков: Hailuoai, Deep Nostalgia. Для качества:Veo 3, Kling 2.1. Для русского языка:Study24, Chad AI. Для быстрого контента: Pika. Для профессионалов: Runway.
Заключение: твоя очередь оживлять прошлое
Я оживил больше 50 фотографий, тестируя эти сервисы. Старые семейные снимки, портреты друзей, групповые фото с путешествий, фотки из интернета забавы ради — всё превратилось в короткие живые видео. Некоторые получились так реалистично, что первые секунды сложно понять, где грань между настоящим видео и анимацией.
✅Что реально работает:Veo 3 для максимального качества, Pika для скорости, Runway для контроля, Study24 для удобного доступа ко всему сразу. Остальные — по ситуации.
❌Что не работает: Попытки оживить размытые фото без предварительной реставрации, слишком сложные промты, ожидание полноценной киноанимации из одного кадра.
Технологии развиваются быстро. То, что сегодня кажется магией, завтра станет обыденностью. Но твои оживлённые фотографии останутся.
Нужно найти гифку где в закусочной типо Мака сидят женщина с ребенком к ним подходит официантка с коробкой типо хеппимила они ждут что там подарок и потом открыфает ее там она показывает средний палец. Как называется этот мем если кому попадался гифка нужна
Сонный паралич был у меня в жизни всего один раз, но помню я его до сих пор
Спал в своей квартире с подругой и внезапно посреди ночи резко очнулся от чувства ужаса. Но проснулся не целиком.
Сто́ит отметить - я сразу понял и осознал, что до сих пор сплю и ничего страшного не случилось. Чувство ужаса было какое-то механическое.
Это как будто физический страх, холостой. То есть нутро ведёт себя, будто тебя что-то сильно напугало, но эмоционально ты не напуган, хотя тебя трясёт. Напоминает разгазовку на холостой передаче, когда звук есть, а езды нет.
Лежу на боку, понимаю, что сплю, а из шкафа мне в затылок смотрит Мэри Шоу из фильма Мёртвая Тишина)) И одновременно с этим понимаю, что никого там нет, и мне нужно всего навсего осознанно проснуться. Но тело не двигается.
И вот я начинаю сам себя будить, пытаясь издавать какие-то стоны, чтоб тело услышало и проснулось. Поначалу не получалось, но примерно на третий скулёж организм среагировал и оцепенение спало.
Позже я прочитал в Википедии, что одним из симптомов сонного паралича является "ощущение присутствия враждебной сущности" - и это определение до сих пор вызывает у меня мурашки, так как я реально затылком чувствовал взгляд ебучей Мэри Шоу))
В целом ощущение необычное и очень интересное, жаль, что больше не испытывал. Всем рекомендую
Что-то вк его заживал, как оживет поправлю пост. Всем пардон. пока вот картиновчка...
До чего техника-то дошла. Так скоро вопрос экранизации романов не будет зависеть от повестки, повесточки и инвесторов... Ведь можно ж надеяться, да? Ненастоящий писатель Павел Иевлев сам иллюстрирует свои романы, и прогресс прям увлекает. (туть)
Главная проблема российского кино в том, что плохое кино - не проблема для студии/режиссера.
Например в 2011 Warner Bros сняли херню - Зелёный фонарь с рейтингом IMDB 5.5, как у нашего Кракенаhttps://www.imdb.com/title/tt1133985/ Фильм провалился в прокате.
Чтобы окупиться фильм должен был собрать $400,000,000
Если кто не знал, фильм должен собрать в два раза больше бюджета, чтобы окупиться, поскольку кассовые сборы делятся пополам между производителем и кинотеатром
По итогу Ворнеры попали на бабки, просрали почти 100 лямов, от 2 и 3 части пришлось отказаться. Режиссеру Мартину Кэмпбеллу (которому до этого аж Бондиану доверяли) таких звездюлей дали, что он следующие 6 лет сериалы снимал.
А нашим студиям и режиссерам за Кракена что будет?
Наверное, многие из вас, как и я, проводят за компьютером кучу времени. Иногда становится так тихо и одиноко, что хочется, чтобы рядом был какой-то живой уголок.
Я всегда с теплотой вспоминал старые "Тамагочи" и подумал: а почему бы не сделать что-то подобное, но для рабочего стола?
Так родился The Desktop Cat — мой небольшой, но сделанный с душой проект. Это маленький пиксельный котик, который живет прямо на вашем экране, поверх всех окон, и требует немного вашей заботы.
Что он умеет:
Жить своей жизнью: Котик просто сидит, спит, иногда просит кушать. Его можно взять мышкой и перетащить в любое место на экране.
Требует заботы: У него есть показатели голода и счастья. Не забывайте его кормить, иначе он загрустит!
Кастомизация: Вы можете дать ему уникальное имя и настроить цвет виджета со статистикой, чтобы он подходил под ваши обои.
Всегда с вами: Он работает поверх всех окон, будь то игра, браузер или код.
Проект полностью бесплатный и с открытым исходным кодом, написан на Unity. Я сам его сейчас использую, и работать стало как-то веселее :)
Зачем я это пишу? Очень хочется поделиться этим маленьким позитивным проектом с вами. Буду невероятно рад, если он кому-то поднимет настроение. И, конечно, я активно его развиваю, так что любой фидбэк или идеи (может, добавить собачку?) — бесценны!