Інвестори OpenAI обговорюють можливість усунення Сема Альтмана з посади через розслідування WSJ щодо конфлікту інтересів. Альтман просував інвестиції OpenAI в компанії, де він мав частку, що ставить під сумнів об'єктивність рішень.
xAI тихо випустила Grok 4.3 у ранній бета-версії. Це нова модель з 0.5T параметрів та знаннями до грудня 2025. Ілон Маск анонсував Grok 4.4 (1T параметрів) та Grok 4.5 (1.5T параметрів) у травні, а також внутрішню "фабрику моделей" для оновлень кожні два тижні.
Стаття про зростаюче використання публічних інструментів ШІ співробітниками без дозволу IT-відділу, підкреслюючи конфлікт між підвищенням продуктивності та ризиками комплаєнсу. Заборона ШІ неефективна, тому пропонується будувати пісочниці та внутрішні шлюзи для LLM.
Китайська AI-компанія DeepSeek шукає $300 млн інвестицій після втрати ключових співробітників та затримки випуску моделі V4. Компанія також переходить на вітчизняне обладнання, щоб зменшити залежність від санкцій США.
OpenClaw — це новий open-source проєкт для створення локальних AI-агентів. Він дозволяє запускати AI-моделі на власному обладнанні, гарантуючи конфіденційність та безпеку даних.
У статті обговорюються поширені побоювання щодо штучного інтелекту, такі як втрата робочих місць і екзистенційні загрози. Вона припускає, що реальний вплив ШІ може відрізнятися від цих тривог.
Unsloth випустила Qwen3.6-35B-A3B-GGUF, опенсорсну модель, що працює локально. Це знімає ризики витоку даних для компаній, які обробляють чутливу інформацію.
Випущено графову мультимодальну RAG-систему для обробки документів на базі LightRAG. Це дозволяє обробляти всі типи контенту в єдиному фреймворку з відкритим кодом, спрощуючи інтеграцію та зменшуючи витрати на розробку.
Представлено Qwen3.6-35B-A3B-heretic-NVFP4, квантовану модель LLaMA, розроблену для NVIDIA DGX Spark GPU з підтримкою FP4 tensor-core. Це дозволяє ефективно та економічно розгортати великі мовні моделі на спеціалізованому обладнанні.
Саймон Віллісон оновив свій інструмент Claude Token Counter для порівняння використання токенів у різних моделях Claude. Оновлення показує, що Claude Opus 4.7 використовує значно більше токенів, ніж попередні версії, що впливає на вартість.
Автор стверджує, що централізація та гомогенізація AI-моделей може призвести до збільшення кореляції між різними сферами. Це, своєю чергою, може зменшити загальну стійкість систем.
Колишніх CEO та CFO збанкрутілої AI-компанії звинувачено у шахрайстві. Це підкреслює ризики інвестування у швидкозростаючі, але неперевірені AI-стартапи, особливо на ранніх стадіях.
Advisor Ledger – це репозиторій на GitHub, що моніторить зміни в Google Docs та виявляє витоки PII, атаки та видалення. Це дозволяє організаціям контролювати конфіденційність та уникнути репутаційних ризиків.
Попри активне впровадження ШІ, більшість CEO не бачать значного впливу на продуктивність або зайнятість. Очікується лише незначне зростання продуктивності на 1.4% протягом наступних трьох років, що ставить під сумнів ефективність інвестицій в ШІ.
OpenAI активно шукає нові шляхи розвитку, про що свідчать останні придбання. Експерти ставлять під сумнів, чи допоможуть ці кроки компанії вирішити фундаментальні проблеми виживання на ринку.
У статті обговорюється важливість даних для навчання та тонкого налаштування AI-моделей, підкреслюючи відмінності між корпоративними та публічними обмеженнями. Також згадується конкуренція між OpenAI та Anthropic, наголошуючи на необхідності достатніх ресурсів для підтримки якості моделей та частки ринку.
У статті переглянуто проблему нерозбірливості ланцюжків думок (CoT) моделі R1. Вирішення цієї проблеми може значно підвищити надійність та точність відповідей AI, що важливо для бізнес-застосувань.
AI-стартапи мають обмежений час, щоб закріпитися на ринку, перш ніж великі foundation моделі почнуть пропонувати аналогічні рішення. Якщо не встигнуть — їх поглинуть або витіснять.
Автор критикує поточний стан AI, де інвестиції робляться в потужні GPU, але недостатньо AI-моделей, які можуть їх повноцінно використовувати. Цей дисбаланс призводить до марної трати ресурсів і нереалізованого потенціалу.
Автор зазначає, що моделі Claude неможливо запустити локально, оскільки все розміщено на серверах Anthropic. Це обмежує користувачів, яким потрібна локальна обробка даних з міркувань конфіденційності або обчислювальних можливостей.
У статті обговорюється використання торгових ботів великими гравцями на ринку та застерігає від обману з їхнього боку. Роздрібним трейдерам радять уникати використання ботів і торгових стратегій, які рекламуються в онлайн-чатах.
Автор ділиться досвідом написання торгових ботів на Java в обхід MetaTrader, вважаючи це заняття схожим на азартні ігри. Він підкреслює, що лише великі гравці торгують, часто використовуючи позичені кошти, та застерігає від переоцінки свого впливу на ринок, особливо на волатильному криптовалютному ринку.
Користувачі обговорюють перехід на локальну LLM Qwen-35B-A3B замість Opus 4.7. Це дозволить компаніям обробляти дані локально, не сплачуючи за API великим гравцям.
У статті ставляться під сумнів прибутковість продажу AI торгових ботів, піддаючи сумніву їхню заявлену ефективність на фінансових ринках. Також ставиться під сумнів практичність використання AI юридичних ботів у складних юридичних сценаріях проти досвідчених юристів.
Нове дослідження показує, що великі мовні моделі (LLM) можуть обробляти інформацію, використовуючи геометричні представлення, а не традиційні мовні методи. Це ставить під сумнів поточне розуміння внутрішньої роботи LLM і може призвести до нових підходів у розробці ШІ.
У Protobuf виявлено критичну вразливість, що дозволяє виконувати JavaScript код. Це може дозволити зловмисникам впроваджувати шкідливий код у додатки, що використовують цю бібліотеку.
У статті обговорюється компроміс між прибутковістю та ризиком при використанні AI-ботів для трейдингу. Підкреслюється, що боти з високими очікуваними прибутками часто мають вищий ризик значних втрат.
Китайський студент створив метеостанцію з Mac Mini та супутникових карт, аналізуючи дані за допомогою Claude AI для прогнозування погоди. Потім він використовував ці прогнози для ставок на Polymarket, заробивши понад $100 000. Це демонструє потенціал AI для отримання прибутку на фінансових ринках, але також підкреслює ризики, пов'язані з використанням AI для спекуляцій.
Mistral AI випустила Mistral Small 4 — гібридну модель, здатну виконувати роль як загальної інструкційної, так і reasoning-моделі. Це відкриває можливості для локального використання AI, що критично для компаній з високими вимогами до конфіденційності.
Трейдер висловив бажання створити персоналізованого AI-бота для автоматизації аналізу трендів та прийняття торгових рішень. Він вважає, що бот потенційно може збільшити його прибутки, працюючи 24/7 за його конкретними правилами.
Автор ділиться статистикою свого AI-бота, розробленого за допомогою нейронних мереж. Він зазначає, що час розробки значно скоротився: з 2 років до одного місяця.
Випущено MiniMax-M2.5-REAP-172B-A10B-NVFP4-GB10, нову локальну LLM з квантизацією NVFP4. Це знімає залежність від дорогих API та дозволяє обробляти чутливі дані локально.
Представлено MiniMax-M2.5-REAP-139B-A10B-NVFP4-GB10, 139B-параметрову LLM з 40% прунінгом, оптимізовану для NVIDIA DGX Spark. Це дозволяє компаніям запускати великі мовні моделі локально, знижуючи залежність від дорогих API.
Користувач повідомляє про використання торгових ботів на основі AI, один з яких копіює угоди великих інвесторів ('китів'), а інший використовує власну стратегію. Боти генерують прибутки від 5-10% на місяць до понад 100% річних, демонструючи потенціал AI в автоматизованій торгівлі.
Стаття висловлює скептицизм щодо ефективності AI-торгових ботів на фондовій біржі, стверджуючи, що вони прибуткові лише у високочастотних торгових сценаріях або через обманні практики. Автор вважає, що цих ботів часто переоцінюють, і вони втрачають свою цінність, коли ринкові умови стабілізуються.
Llama.cpp додала speculative checkpointing. Це прискорить локальний вивід LLM в 1.5-2 рази, що критично для задач, де важлива конфіденційність і низька затримка.
Розробник виявив, що простий shell-скрипт на 113 рядків під назвою Ralph, у поєднанні з Claude, перевершує інші інструменти для агентних циклів. Ralph використовує markdown-промпти для перетворення вимог у PRD, а потім у плани задач.
Alibaba випустила Qwen 3.6, нову версію своєї великої мовної моделі (LLM), яка працює повністю локально та без вбудованої цензури. Це дозволяє користувачам розгортати модель на ноутбуках, ПК та навіть потужних телефонах, забезпечуючи конфіденційність та контроль над даними.
З'явилась нова AI модель z.ai, яку називають вигідною та доступною альтернативою Claude, з якістю кращою за Google та ChatGPT. Незважаючи на менше контекстне вікно, ітеративна обробка та можливість локального розгортання роблять її цікавим варіантом для бізнесу, який шукає AI рішення.
Baidu випустила Qianfan-VL-70B, серію мультимодальних великих мовних моделей для корпоративного використання. Ці моделі розширюють можливості обробки різних типів даних для бізнес-задач.
Baidu випустила Qianfan-VL-8B, серію мультимодальних великих мовних моделей для корпоративних застосувань. Ці моделі розширюють можливості обробки різних типів даних для бізнес-кейсів.
Дослідники провели механістичний аналіз зациклених мовних моделей, які масштабують обчислення під час висновування шляхом багаторазового застосування одних і тих самих блоків трансформера. Вони показали, що такі мережі сходяться до фіксованих точок у латентному просторі, самоорганізовуючись у передбачувані стадії висновування, які відображають функціональну глибину стандартних feedforward моделей, що відкриває шлях до створення параметрично ефективних моделей.
Ян ЛеКун розкритикував прогноз Даріо Амодеі про те, що ШІ знищить 50% офісних робочих місць початкового рівня протягом 5 років. ЛеКун ставить під сумнів обґрунтованість таких оцінок, порівнюючи це з тим, як конюхи оцінювали б наслідки індустріалізації.
Представлено Qwen3.6-35B-Opus-Reasoning-GGUF, fine-tuned версію Qwen3.6-35B-A3B на основі даних від Claude Opus 4.6. Це дозволяє локально використовувати модель для задач, де потрібна висока точність логічних висновків, без залежності від API.
Представлено метод Unweight, що стискає LLM на 22% без втрати якості. Це дозволить запускати великі моделі локально на звичайних ноутбуках, що критично для задач, де важлива конфіденційність даних.
Quorinex випустила Freebuff2API, проксі для OpenAI з динамічним відстеженням безкоштовних агентів. Це дозволяє знизити витрати на використання OpenAI API, особливо для експериментів та розробки.
WaiTime та WaiMoney випустили застосунки в App Store з вбудованим AI-агентом. AI-агент допомагає відстежувати витрати, аналізувати бюджет і керувати часом, аналізуючи енергію та настрій.
Anthropic почав блокувати корпоративні акаунти, коли співробітники використовують індивідуальні підписки з IP-адреси компанії. Це порушення ліцензії, оскільки Anthropic віддає перевагу продажу токенів компаніям за вищою ціною.
Представлено репозиторій зі спеціалізованими MoE-квантами для великої мовної моделі Qwen3. Це дозволяє ефективніше та потенційно швидше розгортати модель локально, знижуючи витрати на інфраструктуру.