Об этом сообщается в блоге самой компании.
Разработчики объяснили, что "учили" модель GPT-2 предугадывать следующее слово с учетом контекста на 40 гигабайтах текста, который был взят из Интернета.
По их словам, модель имеет несколько возможностей, в частности, может создавать условные синтетические текстовые образцы беспрецедентного качества. Так, нужно лишь написать несколько слов, и GPT-2 предложит собственный вариант завершения этого предложения.
Отмечается, что разработчики опасаются, что их нейросеть могут использовать во вред, поэтому решили не публиковать ее полную версию.
Читайте нас в Facebook и Тwitter, также подписывайтесь на канал в Telegram, чтобы всегда быть в курсе важных изменений в стране и мире.
Служба безопасности собрала доказательную базу на российского певца Ярослава Дронова, более известного под сценическим псевдонимом… Читати більше
В Николаевской области фермер Максим Нетудихата создал автоматизированную теплицу, которая самостоятельно контролирует полив, освещение и… Читати більше
В Днепровском районе Киева строят крупнейшее в городе противорадиационное укрытие, где смогут учиться и одновременно… Читати більше
В городе Днепр, из-за аварии на Приднепровской ТЭС, часть жителей останется без отопления в ближайшие… Читати більше
Европейская комиссия опровергла информацию о якобы предложенном Украине новом соглашении о полезных ископаемых, которое является… Читати більше
В Словакии произошел взрыв во время испытательных стрельб в Военно-техническом и испытательном институте на полигоне… Читати більше
Цей сайт використовує Cookies.