Про це повідомляється у блозі самої компанії.
Розробники пояснили, що "навчали" модель GPT-2 передбачати наступне слово з урахуванням контексту на 40 гігабайтах тексту, який було взято з Інтернету.
За їхніми словами, модель має кілька можливостей, зокрема, може створювати умовні синтетичні текстові зразки безпрецедентної якості. Так, потрібно лише написати кілька слів, і GPT-2 запропонує власний варіант завершення цього речення.
Зазначається, що розробники побоюються, що їхню нейромережу можуть використати на шкоду, тому вирішили не публікувати її повну версію.
Читайте нас в Facebook і Тwitter, також підписуйтесь на канал в Telegram, щоб завжди бути в курсі важливих змін в країні і світі.
У Вінниці для дітей з особливими освітніми потребами відкрили на базі ліцею №4 перший у… Читати більше
Лютий зустрічає нас нестійкою погодою: схід України потрапить під сильні дощі, у центрі можливий мокрий… Читати більше
Наступного тижня генеральний директор МАГАТЕ Рафаель Гроссі відвідає Україну для проведення зустрічей на високому рівні… Читати більше
За ініціативи Міністерства у справах ветеранів в лікарнях розпочався проєкт "Простір турботи про ветерана". Перші… Читати більше
Співробітники правоохоронних органів викрили депутата Полтавської обласної ради, який замовив убивство місцевого фермера та громадського… Читати більше
російські загарбники вночі 31 січня атакували ударними дронами місто Чорноморськ на Одещині, внаслідок чого постраждали… Читати більше
Цей сайт використовує Cookies.