• Моя лента
  • Главная
  • Что важно
  • Медиа и развлечения
Поиск

Stay Curious. Stay Wanture.

© 2026 Wanture. All rights reserved.

  • Terms of Use
  • Privacy Policy
Технологии/Безопасность

Как распознать и защититься от deepfake‑мошенничества

Механизм создания deepfake‑видео и голоса, меры защиты от кибермошенничества

14 февраля 2026

Дмитрий Хачатурян
banner

В статье раскрывается, как нейросети создают фальшивые видеозаписи и голоса, какие признаки позволяют их обнаружить и какие практические меры помогут организациям и обычным пользователям защититься от финансовых потерь. Вы узнаете, какие инструменты доступны сегодня, как построить протокол проверки запросов и чего ждать от развития технологии в ближайшие годы.

image (38)

Краткое содержание:

  • В 2025 г. CFO перевёл 8,7 млн ₽ по поддельному голосу; за полугодие случаи deepfake‑мошенничества выросли в 2,3 раз, глобальные потери ≈15 млрд ₽.
  • Deepfake создаётся GAN‑моделями: 30 сек видео + ноутбук генерируют правдоподобный фейк; голос‑подделка требует 5‑10 мин аудио, детекторы ищут несоответствия моргания, текстуры кожи и спектрограммы.
  • Защита: подтверждать любые финансовые запросы вторым каналом, обучать сотрудников, использовать Truepic, Microsoft Video Authenticator или DeepTrace.ai (≈180 тыс. ₽/год), а также проверять тени, границы и ритм речи.

В феврале 2025 года финансовый директор московской IT-компании получил голосовое сообщение от генерального. Голос, интонации, привычная пауза перед цифрами — всё совпало. Просьба была срочной: перевести 8,7 млн рублей подрядчику на новые реквизиты. Деньги ушли за 40 минут. Генеральный в это время был на совещании и ничего не просил. Голос сгенерировала нейросеть на основе трёх минут записи с корпоративного YouTube-канала.

Deepfake из экзотической технологии превратился в массовый инструмент киберпреступлений. Число случаев мошенничества с использованием дипфейков в России выросло в 2,3 раза в первой половине 2025 года. К февралю 2026 года глобальные финансовые потери от задокументированных deepfake-инцидентов превысили $200 млн. Понимать механику технологии и уметь распознавать подделки стало необходимостью для каждого, кто принимает решения на основе видео или голосовых сообщений.

Как работает технология: механика deepfake и голосовых подделок

Deepfake создаётся через состязание двух нейросетей. Одна генерирует фейк, вторая пытается его распознать. Процесс повторяется тысячи раз, пока результат не становится убедительным. Технология использует генеративные модели (GAN, generative adversarial networks), которые обучаются на реальных данных и создают новые, неотличимые от оригинала.

Для создания качественного видео-фейка в 2026 году достаточно 30 секунд исходного видео и потребительского ноутбука с видеокартой. Модель анализирует движения лица, мимику, освещение, затем накладывает лицо целевого человека на тело актёра, синхронизируя каждый кадр.

Voice spoofing работает проще. Модель анализирует тембр, ритм, акцент и эмоциональные паттерны речи. Затем синтезирует новый текст голосом целевого человека. Для убедительной копии голоса сегодня хватает 5–10 минут записи, доступной в публичном пространстве: интервью, подкасты, корпоративные выступления. В даркнете активно предлагаются услуги по созданию видео- и аудиодипфейков в режиме реального времени.

Реальные атаки 2025–2026 годов

Схема корпоративных атак стала типичной. Злоумышленники собирают публичные записи руководителей компаний, генерируют голосовые инструкции и отправляют их сотрудникам через корпоративные мессенджеры или телефон. Финансовые потери от deepfake-мошенничества в корпоративном секторе России выросли на 340% в 2025 году по данным Ассоциации банков России. Сбербанк оценивает общие потери россиян от кибермошенничества в 2025 году в 275–295 млрд рублей.

В январе 2026 года зафиксирован случай подделки видеоконференции. Участники совещания видели директора в Zoom, который давал указания о смене поставщика. Видео было синтезировано в реальном времени с использованием технологии real-time face swap. Компания потеряла 14 млн рублей, пока не обнаружила подмену через 48 часов.

За пределами бизнеса deepfake используется для дискредитации. В феврале 2025 года в сети появилось видео, где известный российский учёный якобы делает противоречивые заявления на конференции. Видео набрало 2,3 млн просмотров за сутки, прежде чем эксперты подтвердили подделку. Репутационный ущерб оказался необратимым. Ущерб промышленным и корпоративным компаниям от мошенничества может доходить до 5% выручки в ряде секторов.

Технологии обнаружения: как системы ловят подделки

Системы детекции deepfake анализируют артефакты, которые модели пока не научились скрывать идеально. Ключевые признаки: несовпадение частоты моргания с естественной (люди моргают каждые 2–10 секунд, фейки моргают хаотично), микроразрывы в текстуре кожи при движении лица, неестественная синхронизация губ и звука.

Голосовые детекторы ищут цифровые следы синтеза. Отсутствие фонового шума, характерного для живой записи, идеально ровные частотные переходы, аномалии в спектрограмме. Модели вроде RealNetworks SAFR и Sensity анализируют до 128 параметров одновременно, достигая точности 87–92% на контенте 2025 года.

Фейки, созданные в конце 2025 года, обходят детекторы образца начала того же года в 60% случаев. Каждое улучшение детекторов провоцирует создание более совершенных генераторов. Гонка вооружений продолжается.

Доступные инструменты проверки

Для корпоративного использования существуют платформы Truepic, Microsoft Video Authenticator и российская разработка DeepTrace.ai (доступна через API). Стоимость интеграции начинается от 180 тыс. рублей в год для компаний до 500 сотрудников.

Обычные пользователи могут использовать бесплатные сервисы: WeVerify (плагин для браузера), Deepware Scanner (загрузка видео до 2 минут), Sensity (анализ до 10 файлов в месяц бесплатно). Ни один инструмент не даёт 100% гарантии, но комбинация двух-трёх увеличивает надёжность.

Пять признаков фейка, которые видит каждый

Первый признак: проверьте освещение. В фейках свет часто падает на лицо и фон по-разному, тени не совпадают с источником света в кадре. Включите видео на полный экран и посмотрите на направление теней.

Второй маркер: края объектов. Волосы, очки, украшения создают сложные границы. Deepfake-модели размывают их или создают ореол пикселей. Посмотрите на линию роста волос при повороте головы.

Третий сигнал: эмоциональная логика. Фейки хорошо копируют мимику, но плохо синхронизируют её с контекстом. Если человек говорит о трагедии с нейтральным лицом или улыбается, обсуждая финансовые потери, это красный флаг.

Четвёртый признак: паузы и дыхание. Синтетический голос делает паузы идеально ровными. Человек дышит неравномерно, делает микрозапинки, меняет темп. Обратите внимание на ритм речи.

Пятый маркер: просите подтверждения. Попросите коллегу назвать кодовое слово или деталь, известную только вам двоим. Это простой протокол верификации при подозрительных запросах.

Что делать прямо сейчас: практические шаги защиты

Корпоративная защита начинается с протокола верификации нестандартных финансовых запросов. Любая просьба о переводе средств, смене реквизитов или раскрытии данных через голосовое сообщение или видеозвонок должна подтверждаться по второму каналу: личный звонок на известный номер, встреча, письменное распоряжение с электронной подписью.

Для сотрудников критичен тренинг. Проведите внутреннюю атаку: отправьте тестовое голосовое сообщение от имени руководителя и зафиксируйте реакцию. В компаниях без подготовки 73% сотрудников выполняют инструкции из фейкового аудио по данным эксперимента Лаборатории Касперского 2025 года. Банки России во втором квартале 2025 года отразили миллионы попыток мошеннических операций, что показывает масштаб угрозы.

Защита на уровне пользователя

Ограничьте публичные записи голоса и видео. Если вы публичная фигура, это невозможно, но можно добавить цифровую подпись к официальным роликам через сервисы вроде Content Authenticity Initiative (поддерживается Adobe, Microsoft).

Настройте двухфакторную аутентификацию для всех критичных сервисов. Используйте видеозвонки для проверки личности при подозрительных запросах. Проверяйте URL отправителя в корпоративных мессенджерах.

Юридическая реальность

В России создание и распространение deepfake для мошенничества подпадает под статью 159.6 УК РФ (компьютерное мошенничество), наказание до 10 лет. Для дискредитации применяется статья 128.1 (клевета). Проблема в доказательной базе: экспертиза фейка занимает 14–30 дней, за это время контент распространяется.

Законопроект о маркировке синтетического контента обсуждается в Госдуме с осени 2025 года, но пока не принят. Европейский AI Act требует обязательной маркировки с марта 2026 года, штрафы до 4% годового оборота компании. Технология развивается быстрее законодательства.

Что дальше

Эксперты ожидают появления deepfake-as-a-service к концу 2026 года: облачные платформы, где любой пользователь сможет создать фейк за 500–1000 рублей без технических навыков. Защита переместится на уровень инфраструктуры: блокчейн-верификация контента, биометрическая аутентификация для критичных операций, обязательная цифровая подпись для корпоративных коммуникаций.

Технология deepfake не исчезнет. Она станет обыденным инструментом, как фотошоп в 2000-х. Разница в том, что фотошоп требовал навыка, deepfake требует только данных. И данных у всех достаточно в открытом доступе.

О чём это

  • голосовые интерфейсы/
  • генеративное видео/
  • искусственный интеллект/
  • компьютерное зрение/
  • цифровая грамотность

Лента

    74 % компаний инвестируют в ИИ, данные растут до 260 ТБ

    74 % компаний инвестируют в ИИ, данные растут до 260 ТБ

    около 14 часов назад
    Cursor 3: автономные ИИ‑агенты ускоряют разработку!

    Cursor 3: автономные ИИ‑агенты ускоряют разработку!

    Автономные ИИ‑агенты делегируют рутину и работают офлайн — для разработчиков

    около 17 часов назад
    Orion (Artemis 2) вышел на лунную траекторию

    Orion (Artemis 2) вышел на лунную траекторию

    Первый полет за пределы орбиты с 1972 года открывает путь к лунным миссиям

    около 18 часов назад
    Android 17: автоматические сценарии уведомлений уже в бете

    Android 17: автоматические сценарии уведомлений уже в бете

    Управляйте звуком от банков без сторонних утилит — поддержка в One UI 9

    около 18 часов назад
    Volga C50: бизнес‑седан 200 л.с. стартует летом 2026 г.

    Volga C50: бизнес‑седан 200 л.с. стартует летом 2026 г.

    C50: 4825 мм × 1880 мм, база 2800 мм, 2‑литровый турбомотор 200 л.с., 7‑ступенчатая 7DCT, адаптивный круиз и камера 360°

    около 19 часов назад
    Xiaomi повышает цены на Redmi K90 Pro Max и Turbo 5!

    Xiaomi повышает цены на Redmi K90 Pro Max и Turbo 5!

    200 юаней для Redmi K90 Pro Max, 1500 юаней для 12 ГБ + 512 ГБ, отмена акций Turbo 5

    около 19 часов назад
    Apple выпускает iOS 18.7.7: патч против DarkSword

    Apple выпускает iOS 18.7.7: патч против DarkSword

    Экстренное обновление закрывает шесть эксплойтов, включая обход Lockdown Mode

    1 день назад
    BoxPlates для PS5 Slim и Pro: визуальное обновление

    BoxPlates для PS5 Slim и Pro: визуальное обновление

    1 день назад
    Минцифры вводит новые лицензии на домашний интернет к 2027 году

    Минцифры вводит новые лицензии на домашний интернет к 2027 году

    Лицензии получат только юридические лица, ИП — исключат, штрафы за нарушения

    1 день назад
    Artemis II: запущена SLS и Orion к Луне?

    Artemis II: запущена SLS и Orion к Луне?

    Первый пилотируемый полёт за полвека проверит связь, скафандры и радиозащиту

    2 дня назад
    Apple отмечает 50‑летие: новые минималистичные обои

    Apple отмечает 50‑летие: новые минималистичные обои

    1 апреля 2026 года Basic Apple Guy выпустил светлую и тёмную коллекцию обоев

    2 дня назад
    Яндекс блокирует все неизвестные звонки в России

    Яндекс блокирует все неизвестные звонки в России

    «Яндекс с Алисой AI» и «Яндекс Браузер» теперь блокируют неизвестные звонки

    2 дня назад
    Razer запускает Pro Type Ergo: эргономичная split‑клавиатура

    Razer запускает Pro Type Ergo: эргономичная split‑клавиатура

    Разделённая раскладка, 19‑зонная подсветка и пять макросов для снижения нагрузки на запястья

    3 дня назад
    Минцифры отменила штрафы за VPN — 30 марта 2026 г.

    Минцифры отменила штрафы за VPN — 30 марта 2026 г.

    36 % россиян используют VPN; Минцифры ищет компромиссные меры до 1 мая 2026 г.

    3 дня назад
    Huawei запускает Watch GT Runner 2 в России в 2026 году

    Huawei запускает Watch GT Runner 2 в России в 2026 году

    Часы измеряют мощность бега без внешних датчиков, имеют титановый корпус и партнёрство с Кипчоге

    3 дня назад
    Google запускает Veo 3.1 Lite: видеогенерация вдвое дешевле

    Google запускает Veo 3.1 Lite: видеогенерация вдвое дешевле

    Видеоролики 4‑8 сек в 720p/1080p, цена вдвое ниже — шанс для стартапов

    3 дня назад
    Яндекс‑Алиса AI умеет «нюхать» фото: тест 1‑3 апреля!

    Яндекс‑Алиса AI умеет «нюхать» фото: тест 1‑3 апреля!

    Доступно в приложении, Яндекс‑Браузере и поиске, бета‑тест с 1 по 3 апреля

    3 дня назад
    Aluminium OS: Google не объявил, но уже есть стоковые обои

    Aluminium OS: Google не объявил, но уже есть стоковые обои

    Более десяти PNG‑обоев и видеодемонстрация показывают интерфейс Aluminium OS

    3 дня назад
    Телеграм 12.6: ИИ‑редактор и новые функции для России

    Телеграм 12.6: ИИ‑редактор и новые функции для России

    Телеграм 12.6: ИИ‑редактор, опросы, Live‑фото, защита от неофициальных клиентов

    3 дня назад

    Nvidia запускает DLSS 4.5 для RTX 50: до 6‑кратного роста FPS

    DLSS 4.5 в бете Nvidia App уже поддерживает ARC Raiders и Marvel Rivals

    3 дня назад
    Loading...
Технологии/Безопасность

Как распознать и защититься от deepfake‑мошенничества

Механизм создания deepfake‑видео и голоса, меры защиты от кибермошенничества

14 февраля 2026, 13:42

В статье раскрывается, как нейросети создают фальшивые видеозаписи и голоса, какие признаки позволяют их обнаружить и какие практические меры помогут организациям и обычным пользователям защититься от финансовых потерь. Вы узнаете, какие инструменты доступны сегодня, как построить протокол проверки запросов и чего ждать от развития технологии в ближайшие годы.

image (38)

Краткое содержание

  • В 2025 г. CFO перевёл 8,7 млн ₽ по поддельному голосу; за полугодие случаи deepfake‑мошенничества выросли в 2,3 раз, глобальные потери ≈15 млрд ₽.
  • Deepfake создаётся GAN‑моделями: 30 сек видео + ноутбук генерируют правдоподобный фейк; голос‑подделка требует 5‑10 мин аудио, детекторы ищут несоответствия моргания, текстуры кожи и спектрограммы.
  • Защита: подтверждать любые финансовые запросы вторым каналом, обучать сотрудников, использовать Truepic, Microsoft Video Authenticator или DeepTrace.ai (≈180 тыс. ₽/год), а также проверять тени, границы и ритм речи.

В феврале 2025 года финансовый директор московской IT-компании получил голосовое сообщение от генерального. Голос, интонации, привычная пауза перед цифрами — всё совпало. Просьба была срочной: перевести 8,7 млн рублей подрядчику на новые реквизиты. Деньги ушли за 40 минут. Генеральный в это время был на совещании и ничего не просил. Голос сгенерировала нейросеть на основе трёх минут записи с корпоративного YouTube-канала.

Deepfake из экзотической технологии превратился в массовый инструмент киберпреступлений. Число случаев мошенничества с использованием дипфейков в России выросло в 2,3 раза в первой половине 2025 года. К февралю 2026 года глобальные финансовые потери от задокументированных deepfake-инцидентов превысили $200 млн. Понимать механику технологии и уметь распознавать подделки стало необходимостью для каждого, кто принимает решения на основе видео или голосовых сообщений.

Как работает технология: механика deepfake и голосовых подделок

Deepfake создаётся через состязание двух нейросетей. Одна генерирует фейк, вторая пытается его распознать. Процесс повторяется тысячи раз, пока результат не становится убедительным. Технология использует генеративные модели (GAN, generative adversarial networks), которые обучаются на реальных данных и создают новые, неотличимые от оригинала.

Для создания качественного видео-фейка в 2026 году достаточно 30 секунд исходного видео и потребительского ноутбука с видеокартой. Модель анализирует движения лица, мимику, освещение, затем накладывает лицо целевого человека на тело актёра, синхронизируя каждый кадр.

Voice spoofing работает проще. Модель анализирует тембр, ритм, акцент и эмоциональные паттерны речи. Затем синтезирует новый текст голосом целевого человека. Для убедительной копии голоса сегодня хватает 5–10 минут записи, доступной в публичном пространстве: интервью, подкасты, корпоративные выступления. В даркнете активно предлагаются услуги по созданию видео- и аудиодипфейков в режиме реального времени.

Реальные атаки 2025–2026 годов

Схема корпоративных атак стала типичной. Злоумышленники собирают публичные записи руководителей компаний, генерируют голосовые инструкции и отправляют их сотрудникам через корпоративные мессенджеры или телефон. Финансовые потери от deepfake-мошенничества в корпоративном секторе России выросли на 340% в 2025 году по данным Ассоциации банков России. Сбербанк оценивает общие потери россиян от кибермошенничества в 2025 году в 275–295 млрд рублей.

В январе 2026 года зафиксирован случай подделки видеоконференции. Участники совещания видели директора в Zoom, который давал указания о смене поставщика. Видео было синтезировано в реальном времени с использованием технологии real-time face swap. Компания потеряла 14 млн рублей, пока не обнаружила подмену через 48 часов.

За пределами бизнеса deepfake используется для дискредитации. В феврале 2025 года в сети появилось видео, где известный российский учёный якобы делает противоречивые заявления на конференции. Видео набрало 2,3 млн просмотров за сутки, прежде чем эксперты подтвердили подделку. Репутационный ущерб оказался необратимым. Ущерб промышленным и корпоративным компаниям от мошенничества может доходить до 5% выручки в ряде секторов.

Технологии обнаружения: как системы ловят подделки

Системы детекции deepfake анализируют артефакты, которые модели пока не научились скрывать идеально. Ключевые признаки: несовпадение частоты моргания с естественной (люди моргают каждые 2–10 секунд, фейки моргают хаотично), микроразрывы в текстуре кожи при движении лица, неестественная синхронизация губ и звука.

Голосовые детекторы ищут цифровые следы синтеза. Отсутствие фонового шума, характерного для живой записи, идеально ровные частотные переходы, аномалии в спектрограмме. Модели вроде RealNetworks SAFR и Sensity анализируют до 128 параметров одновременно, достигая точности 87–92% на контенте 2025 года.

Фейки, созданные в конце 2025 года, обходят детекторы образца начала того же года в 60% случаев. Каждое улучшение детекторов провоцирует создание более совершенных генераторов. Гонка вооружений продолжается.

Доступные инструменты проверки

Для корпоративного использования существуют платформы Truepic, Microsoft Video Authenticator и российская разработка DeepTrace.ai (доступна через API). Стоимость интеграции начинается от 180 тыс. рублей в год для компаний до 500 сотрудников.

Обычные пользователи могут использовать бесплатные сервисы: WeVerify (плагин для браузера), Deepware Scanner (загрузка видео до 2 минут), Sensity (анализ до 10 файлов в месяц бесплатно). Ни один инструмент не даёт 100% гарантии, но комбинация двух-трёх увеличивает надёжность.

Пять признаков фейка, которые видит каждый

Первый признак: проверьте освещение. В фейках свет часто падает на лицо и фон по-разному, тени не совпадают с источником света в кадре. Включите видео на полный экран и посмотрите на направление теней.

Второй маркер: края объектов. Волосы, очки, украшения создают сложные границы. Deepfake-модели размывают их или создают ореол пикселей. Посмотрите на линию роста волос при повороте головы.

Третий сигнал: эмоциональная логика. Фейки хорошо копируют мимику, но плохо синхронизируют её с контекстом. Если человек говорит о трагедии с нейтральным лицом или улыбается, обсуждая финансовые потери, это красный флаг.

Четвёртый признак: паузы и дыхание. Синтетический голос делает паузы идеально ровными. Человек дышит неравномерно, делает микрозапинки, меняет темп. Обратите внимание на ритм речи.

Пятый маркер: просите подтверждения. Попросите коллегу назвать кодовое слово или деталь, известную только вам двоим. Это простой протокол верификации при подозрительных запросах.

Что делать прямо сейчас: практические шаги защиты

Корпоративная защита начинается с протокола верификации нестандартных финансовых запросов. Любая просьба о переводе средств, смене реквизитов или раскрытии данных через голосовое сообщение или видеозвонок должна подтверждаться по второму каналу: личный звонок на известный номер, встреча, письменное распоряжение с электронной подписью.

Для сотрудников критичен тренинг. Проведите внутреннюю атаку: отправьте тестовое голосовое сообщение от имени руководителя и зафиксируйте реакцию. В компаниях без подготовки 73% сотрудников выполняют инструкции из фейкового аудио по данным эксперимента Лаборатории Касперского 2025 года. Банки России во втором квартале 2025 года отразили миллионы попыток мошеннических операций, что показывает масштаб угрозы.

Защита на уровне пользователя

Ограничьте публичные записи голоса и видео. Если вы публичная фигура, это невозможно, но можно добавить цифровую подпись к официальным роликам через сервисы вроде Content Authenticity Initiative (поддерживается Adobe, Microsoft).

Настройте двухфакторную аутентификацию для всех критичных сервисов. Используйте видеозвонки для проверки личности при подозрительных запросах. Проверяйте URL отправителя в корпоративных мессенджерах.

Юридическая реальность

В России создание и распространение deepfake для мошенничества подпадает под статью 159.6 УК РФ (компьютерное мошенничество), наказание до 10 лет. Для дискредитации применяется статья 128.1 (клевета). Проблема в доказательной базе: экспертиза фейка занимает 14–30 дней, за это время контент распространяется.

Законопроект о маркировке синтетического контента обсуждается в Госдуме с осени 2025 года, но пока не принят. Европейский AI Act требует обязательной маркировки с марта 2026 года, штрафы до 4% годового оборота компании. Технология развивается быстрее законодательства.

Что дальше

Эксперты ожидают появления deepfake-as-a-service к концу 2026 года: облачные платформы, где любой пользователь сможет создать фейк за 500–1000 рублей без технических навыков. Защита переместится на уровень инфраструктуры: блокчейн-верификация контента, биометрическая аутентификация для критичных операций, обязательная цифровая подпись для корпоративных коммуникаций.

Технология deepfake не исчезнет. Она станет обыденным инструментом, как фотошоп в 2000-х. Разница в том, что фотошоп требовал навыка, deepfake требует только данных. И данных у всех достаточно в открытом доступе.

О чём это

  • голосовые интерфейсы/
  • генеративное видео/
  • искусственный интеллект/
  • компьютерное зрение/
  • цифровая грамотность

Лента

    74 % компаний инвестируют в ИИ, данные растут до 260 ТБ

    74 % компаний инвестируют в ИИ, данные растут до 260 ТБ

    около 14 часов назад
    Cursor 3: автономные ИИ‑агенты ускоряют разработку!

    Cursor 3: автономные ИИ‑агенты ускоряют разработку!

    Автономные ИИ‑агенты делегируют рутину и работают офлайн — для разработчиков

    около 17 часов назад
    Orion (Artemis 2) вышел на лунную траекторию

    Orion (Artemis 2) вышел на лунную траекторию

    Первый полет за пределы орбиты с 1972 года открывает путь к лунным миссиям

    около 18 часов назад
    Android 17: автоматические сценарии уведомлений уже в бете

    Android 17: автоматические сценарии уведомлений уже в бете

    Управляйте звуком от банков без сторонних утилит — поддержка в One UI 9

    около 18 часов назад
    Volga C50: бизнес‑седан 200 л.с. стартует летом 2026 г.

    Volga C50: бизнес‑седан 200 л.с. стартует летом 2026 г.

    C50: 4825 мм × 1880 мм, база 2800 мм, 2‑литровый турбомотор 200 л.с., 7‑ступенчатая 7DCT, адаптивный круиз и камера 360°

    около 19 часов назад
    Xiaomi повышает цены на Redmi K90 Pro Max и Turbo 5!

    Xiaomi повышает цены на Redmi K90 Pro Max и Turbo 5!

    200 юаней для Redmi K90 Pro Max, 1500 юаней для 12 ГБ + 512 ГБ, отмена акций Turbo 5

    около 19 часов назад
    Apple выпускает iOS 18.7.7: патч против DarkSword

    Apple выпускает iOS 18.7.7: патч против DarkSword

    Экстренное обновление закрывает шесть эксплойтов, включая обход Lockdown Mode

    1 день назад
    BoxPlates для PS5 Slim и Pro: визуальное обновление

    BoxPlates для PS5 Slim и Pro: визуальное обновление

    1 день назад
    Минцифры вводит новые лицензии на домашний интернет к 2027 году

    Минцифры вводит новые лицензии на домашний интернет к 2027 году

    Лицензии получат только юридические лица, ИП — исключат, штрафы за нарушения

    1 день назад
    Artemis II: запущена SLS и Orion к Луне?

    Artemis II: запущена SLS и Orion к Луне?

    Первый пилотируемый полёт за полвека проверит связь, скафандры и радиозащиту

    2 дня назад
    Apple отмечает 50‑летие: новые минималистичные обои

    Apple отмечает 50‑летие: новые минималистичные обои

    1 апреля 2026 года Basic Apple Guy выпустил светлую и тёмную коллекцию обоев

    2 дня назад
    Яндекс блокирует все неизвестные звонки в России

    Яндекс блокирует все неизвестные звонки в России

    «Яндекс с Алисой AI» и «Яндекс Браузер» теперь блокируют неизвестные звонки

    2 дня назад
    Razer запускает Pro Type Ergo: эргономичная split‑клавиатура

    Razer запускает Pro Type Ergo: эргономичная split‑клавиатура

    Разделённая раскладка, 19‑зонная подсветка и пять макросов для снижения нагрузки на запястья

    3 дня назад
    Минцифры отменила штрафы за VPN — 30 марта 2026 г.

    Минцифры отменила штрафы за VPN — 30 марта 2026 г.

    36 % россиян используют VPN; Минцифры ищет компромиссные меры до 1 мая 2026 г.

    3 дня назад
    Huawei запускает Watch GT Runner 2 в России в 2026 году

    Huawei запускает Watch GT Runner 2 в России в 2026 году

    Часы измеряют мощность бега без внешних датчиков, имеют титановый корпус и партнёрство с Кипчоге

    3 дня назад
    Google запускает Veo 3.1 Lite: видеогенерация вдвое дешевле

    Google запускает Veo 3.1 Lite: видеогенерация вдвое дешевле

    Видеоролики 4‑8 сек в 720p/1080p, цена вдвое ниже — шанс для стартапов

    3 дня назад
    Яндекс‑Алиса AI умеет «нюхать» фото: тест 1‑3 апреля!

    Яндекс‑Алиса AI умеет «нюхать» фото: тест 1‑3 апреля!

    Доступно в приложении, Яндекс‑Браузере и поиске, бета‑тест с 1 по 3 апреля

    3 дня назад
    Aluminium OS: Google не объявил, но уже есть стоковые обои

    Aluminium OS: Google не объявил, но уже есть стоковые обои

    Более десяти PNG‑обоев и видеодемонстрация показывают интерфейс Aluminium OS

    3 дня назад
    Телеграм 12.6: ИИ‑редактор и новые функции для России

    Телеграм 12.6: ИИ‑редактор и новые функции для России

    Телеграм 12.6: ИИ‑редактор, опросы, Live‑фото, защита от неофициальных клиентов

    3 дня назад

    Nvidia запускает DLSS 4.5 для RTX 50: до 6‑кратного роста FPS

    DLSS 4.5 в бете Nvidia App уже поддерживает ARC Raiders и Marvel Rivals

    3 дня назад
    Loading...
banner