Фейкова «модель OpenAI» за добу вкрала паролі, крипту та Discord-сесії у тисяч користувачів
На Hugging Face виявили шкідливий репозиторій, замаскований під офіційний OpenAI Privacy Filter. За 18 годин він зібрав ~244 тисячі завантажень, вийшов у топ трендів та отримав сотні лайків від ботів, що призвело до масової крадіжки даних користувачів.
⚠️ Небезпечна імітація. Перевіряйте джерела моделей перед завантаженням, особливо якщо працюєте з чутливими даними.
🟢 МОЖЛИВОСТІ
- Можливість для компаній посилити протоколи безпеки при використанні AI-моделей.
- Створення інструментів для автоматичної перевірки автентичності AI-репозиторіїв.
- Підвищення обізнаності користувачів про ризики завантаження моделей з неперевірених джерел.
🔴 ЗАГРОЗИ
- Ризик втрати конфіденційних даних через завантаження шкідливих AI-моделей.
- Збільшення кількості атак, націлених на користувачів AI-інструментів.
- Репутаційні ризики для компаній, які використовують скомпрометовані моделі.
🎯 Чи підходить це вашому бізнесу?
Заповніть профіль компанії — і ми автоматично покажемо, чи варто вам це впроваджувати.
Заповнити профіль · 30 секундTL;DR
- •Фейкова модель OpenAI зібрала 244 тисячі завантажень за 18 годин.
- •Шкідливий код ховався у файлах
start.batтаloader.py. - •Інфостилер викрадав паролі, cookies, Discord-сесії, дані криптогаманців та SSH/VPN-конфіги.
- •Знайдено декілька фейкових моделей під виглядом DeepSeek, Qwen та Claude.
- •Атака використовувала ботів для створення видимості довіри.
Як це змінить ваш ринок?
Компанії, що використовують AI для обробки чутливих даних (фінанси, медицина), зіткнуться з підвищеними ризиками витоку інформації через використання неперевірених моделей. Це може заблокувати впровадження AI в критичних сферах до посилення заходів безпеки.
Інфостилер: Шкідливе ПЗ, призначене для крадіжки конфіденційної інформації з комп'ютерів користувачів.
Для кого це і за яких умов
Актуально для будь-якої компанії, що використовує AI-моделі з відкритих джерел. Потрібна команда IT-безпеки для перевірки автентичності моделей та аналізу коду. Час на впровадження залежить від складності моделі, але мінімум 1-2 дні на модель.
Альтернативи
| Перевірка вручну | Автоматизовані інструменти | Хмарні сервіси з перевіркою | |
|---|---|---|---|
| Ціна | Безкоштовно (час IT-спеціаліста) | Від $100/міс | Залежить від обсягу даних (ціна не оголошена) |
| Де працює | Локально | Локально або в хмарі | Хмара |
| Мін. вимоги | IT-спеціаліст з досвідом аналізу коду | Сервер з достатньою обчислювальною потужністю | Відсутні |
| Ключова різниця | Трудомісткий процес | Автоматизує перевірку, але потребує налаштування | Готове рішення, але залежить від довіри до провайдера |
💬 Часті запитання
Такий розбір щоранку о 08:00
Персональний AI-дайджест для вашої галузі — щодня у Telegram
Навчіть вашу команду будувати такі AI-автоматизації
За 5 днів кожен співробітник побудує автоматизацію для своєї ділянки роботи.
Дізнатись більше → aiupskill.live