Про це повідомляється у блозі самої компанії.
Розробники пояснили, що "навчали" модель GPT-2 передбачати наступне слово з урахуванням контексту на 40 гігабайтах тексту, який було взято з Інтернету.
За їхніми словами, модель має кілька можливостей, зокрема, може створювати умовні синтетичні текстові зразки безпрецедентної якості. Так, потрібно лише написати кілька слів, і GPT-2 запропонує власний варіант завершення цього речення.
Зазначається, що розробники побоюються, що їхню нейромережу можуть використати на шкоду, тому вирішили не публікувати її повну версію.
Читайте нас в Facebook і Тwitter, також підписуйтесь на канал в Telegram, щоб завжди бути в курсі важливих змін в країні і світі.
Командувач Військово-морських сил України Олексій Неїжпапа натякнув на можливу підготовку Сил оборони до нової атаки… Читати більше
З 7 по 16 березня у книжковому просторі "Сенс" на Хрещатику експонуватиметься раритетне видання "Кобзаря" Тараса Шевченка,… Читати більше
Російські військові атакували Запорізьку область ударними дронами. В місті пролунало до 10 вибухів, внаслідок обстрілу… Читати більше
Києво-Могилянська академія разом з Центром рекрутингу Сил тероборони ЗСУ розпочали вишкіл студентів та викладачів з базової військової… Читати більше
Двотижнева інтерактивна інформаційна виставка та квест-гра для батьків та дітей пройшла у Кіровоградській, Львівській та… Читати більше
Цими вихідними, 8-9 березня, львів’ян та львів’янок запрошують долучитись до акції «Музей для музею». У… Читати більше
Цей сайт використовує Cookies.