Об этом сообщается в блоге самой компании.
Разработчики объяснили, что "учили" модель GPT-2 предугадывать следующее слово с учетом контекста на 40 гигабайтах текста, который был взят из Интернета.
По их словам, модель имеет несколько возможностей, в частности, может создавать условные синтетические текстовые образцы беспрецедентного качества. Так, нужно лишь написать несколько слов, и GPT-2 предложит собственный вариант завершения этого предложения.
Отмечается, что разработчики опасаются, что их нейросеть могут использовать во вред, поэтому решили не публиковать ее полную версию.
Читайте нас в Facebook и Тwitter, также подписывайтесь на канал в Telegram, чтобы всегда быть в курсе важных изменений в стране и мире.
Киевлянин Александр Гома установил национальный рекорд по плаванию. Он без остановки проплавал в бассейне сутки… Читати більше
Венгрия хочет, чтобы Евросоюз исключил восемь человек из санкционного списка против России. Тогда она может… Читати більше
Президент Украины Владимир Зеленский провел телефонный разговор с Премьер-министром Королевства Бельгия Бартом де Вевером и… Читати більше
Польша увеличит количество интернет-терминалов Starlink, действующих в Украине, для обеспечения стабильной связи на фронте и… Читати більше
Министр обороны Украины Рустем Умеров в формате видеосвязи принял участие в заседании, которое объединило представителей… Читати більше
25 февраля Правительство Украины, Группа Всемирного банка, Европейская Комиссия и Организация Объединенных Наций представили отчет… Читати більше
Цей сайт використовує Cookies.