НейтральнаImpact 5/10🔬 Research👤 Для всіх

Talkie: LLM, що застрягла в 1930-х роках

Denis Sexy IT 🤖7 днів тому0 переглядів

Створено 13B мовну модель Talkie, навчену на 260 мільярдах токенів даних до 1930 року, щоб перевірити її здатність передбачати майбутні події. Цей експеримент, частково під керівництвом Алека Редфорда, має на меті випустити модель рівня GPT-3 цього літа та дослідити, як ШІ може передбачати майбутні події на основі історичних даних.

ВердиктНейтральнаImpact 5/10

🔬 Цікавий експеримент. Можливість тестувати LLM на передбачення майбутнього, але поки що рано для практичного застосування.

🟢 МОЖЛИВОСТІ

  • Можливість передбачати технологічні прориви на основі історичних даних
  • Тестування LLM без обмежень авторського права (дані до 1930 року)
  • Участь Алека Редфорда, творця першої GPT, підвищує довіру до проєкту

🔴 ЗАГРОЗИ

  • Обмеженість даних до 1930 року може вплинути на точність прогнозів
  • Модель може мати труднощі з розумінням сучасних концепцій і технологій
  • Потребує значних обчислювальних ресурсів для навчання та розгортання

🎯 Чи підходить це вашому бізнесу?

Заповніть профіль компанії — і ми автоматично покажемо, чи варто вам це впроваджувати.

Заповнити профіль · 30 секунд
Детальний розбір ↓

TL;DR

  • Модель Talkie – це LLM з 13 мільярдами параметрів.
  • Навчання проводилось на 260 мільярдах токенів даних до 1930 року.
  • Мета – перевірити здатність моделі передбачати майбутні події.
  • До проєкту залучений Алек Редфорд, один з творців GPT.
  • Очікується випуск моделі рівня GPT-3 влітку.

Як це змінить ваш ринок?

Для дослідницьких організацій це відкриває можливість експериментувати з LLM без ризику порушення авторських прав, що є значним блокером у сфері обробки великих обсягів даних.

Передбачення майбутнього – здатність AI аналізувати історичні дані для прогнозування майбутніх подій та тенденцій.

Для кого це і за яких умов

Для дослідників, науковців та IT-спеціалістів, які мають доступ до обчислювальних ресурсів для навчання та розгортання моделі. 7B може працювати на звичайному ПК, але для 13B потрібна GPU.

Альтернативи

Talkie (до 1930)GPT-3Llama 2
ЦінаБезкоштовно~$0.02/1000 токенівБезкоштовно
Де працюєЛокально/ХмараAPIЛокально/Хмара
Мін. вимогиGPU (для 13B)APIGPU (для великих моделей)
Ключова різницяІсторичні даніЗагального призначенняЗагального призначення

💬 Часті запитання

Модель навчалась на 260 мільярдах токенів даних, зібраних до 1930 року, що робить її найбільшим подібним експериментом.

🔒 Підтекст (Insider)

Тренування LLM на історичних даних дозволяє досліджувати можливості передбачення майбутнього. Успіх цього проєкту може призвести до нових методів навчання моделей, здатних аналізувати минуле для прогнозування майбутнього.

Такий розбір щоранку о 08:00

Персональний AI-дайджест для вашої галузі — щодня у Telegram

7 днів безкоштовно
LLMhistoricaldataGPT-3AlecRadfordTalkie

Навчіть вашу команду будувати такі AI-автоматизації

За 5 днів кожен співробітник побудує автоматизацію для своєї ділянки роботи.

Дізнатись більше → aiupskill.live