НегативнаImpact 6/10👤 Для всіх🔐 Кібербезпека BREAKING

Фейкова «модель OpenAI» за добу вкрала паролі, крипту та Discord-сесії у тисяч користувачів

AI Нейросети | Новости о нейросетях и искусственном интеллектеблизько 2 годин тому0 переглядів

На Hugging Face виявили шкідливий репозиторій, замаскований під офіційний OpenAI Privacy Filter. За 18 годин він зібрав ~244 тисячі завантажень, вийшов у топ трендів та отримав сотні лайків від ботів, що призвело до масової крадіжки даних користувачів.

ВердиктНегативнаImpact 6/10

⚠️ Небезпечна імітація. Перевіряйте джерела моделей перед завантаженням, особливо якщо працюєте з чутливими даними.

🟢 МОЖЛИВОСТІ

  • Можливість для компаній посилити протоколи безпеки при використанні AI-моделей.
  • Створення інструментів для автоматичної перевірки автентичності AI-репозиторіїв.
  • Підвищення обізнаності користувачів про ризики завантаження моделей з неперевірених джерел.

🔴 ЗАГРОЗИ

  • Ризик втрати конфіденційних даних через завантаження шкідливих AI-моделей.
  • Збільшення кількості атак, націлених на користувачів AI-інструментів.
  • Репутаційні ризики для компаній, які використовують скомпрометовані моделі.

🎯 Чи підходить це вашому бізнесу?

Заповніть профіль компанії — і ми автоматично покажемо, чи варто вам це впроваджувати.

Заповнити профіль · 30 секунд
Детальний розбір ↓

TL;DR

  • Фейкова модель OpenAI зібрала 244 тисячі завантажень за 18 годин.
  • Шкідливий код ховався у файлах start.bat та loader.py.
  • Інфостилер викрадав паролі, cookies, Discord-сесії, дані криптогаманців та SSH/VPN-конфіги.
  • Знайдено декілька фейкових моделей під виглядом DeepSeek, Qwen та Claude.
  • Атака використовувала ботів для створення видимості довіри.

Як це змінить ваш ринок?

Компанії, що використовують AI для обробки чутливих даних (фінанси, медицина), зіткнуться з підвищеними ризиками витоку інформації через використання неперевірених моделей. Це може заблокувати впровадження AI в критичних сферах до посилення заходів безпеки.

Інфостилер: Шкідливе ПЗ, призначене для крадіжки конфіденційної інформації з комп'ютерів користувачів.

Для кого це і за яких умов

Актуально для будь-якої компанії, що використовує AI-моделі з відкритих джерел. Потрібна команда IT-безпеки для перевірки автентичності моделей та аналізу коду. Час на впровадження залежить від складності моделі, але мінімум 1-2 дні на модель.

Альтернативи

Перевірка вручнуАвтоматизовані інструментиХмарні сервіси з перевіркою
ЦінаБезкоштовно (час IT-спеціаліста)Від $100/місЗалежить від обсягу даних (ціна не оголошена)
Де працюєЛокальноЛокально або в хмаріХмара
Мін. вимогиIT-спеціаліст з досвідом аналізу кодуСервер з достатньою обчислювальною потужністюВідсутні
Ключова різницяТрудомісткий процесАвтоматизує перевірку, але потребує налаштуванняГотове рішення, але залежить від довіри до провайдера

💬 Часті запитання

Перевіряйте цифровий підпис розробника, аналізуйте код на наявність шкідливих вставок, використовуйте інструменти для сканування репозиторіїв на наявність вразливостей.

Такий розбір щоранку о 08:00

Персональний AI-дайджест для вашої галузі — щодня у Telegram

7 днів безкоштовно
OpenAIHuggingFacemalwaresecurityAImodels

Навчіть вашу команду будувати такі AI-автоматизації

За 5 днів кожен співробітник побудує автоматизацію для своєї ділянки роботи.

Дізнатись більше → aiupskill.live