Об этом сообщается в блоге самой компании.
Разработчики объяснили, что «учили» модель GPT-2 предугадывать следующее слово с учетом контекста на 40 гигабайтах текста, который был взят из Интернета.
По их словам, модель имеет несколько возможностей, в частности, может создавать условные синтетические текстовые образцы беспрецедентного качества. Так, нужно лишь написать несколько слов, и GPT-2 предложит собственный вариант завершения этого предложения.
Отмечается, что разработчики опасаются, что их нейросеть могут использовать во вред, поэтому решили не публиковать ее полную версию.
Читайте нас в Facebook и Тwitter, также подписывайтесь на канал в Telegram, чтобы всегда быть в курсе важных изменений в стране и мире.
Украинка Maria Oz совместно с Superhumans Center разработала проект, демонстрирующий красоту людей с травмами лица,… Читати більше
В воскресенье, 28 апреля, войска российской федерации атаковали Запорожье. Оккупанты ударили по объекту промышленности. Об… Читати більше
Военные Сил обороны отошли западнее населенных пунктов Бердичи, Семеновка и Новомихайловка в районе Авдеевки. Это… Читати більше
Сейчас ситуация на фронте обостряется. Вражеские войска пытаются захватить стратегическую инициативу на поле боя. Об… Читати більше
В Хмельницкой области на территории национального природного парка "Мале Полесье" установили ульи Фабра, которые являются… Читати більше
Благотворительный фонд BGV совместно с немецкими донорами #WeAreAllUkrainians и фондом help alliance от Lufthansa Group… Читати більше
Цей сайт використовує Cookies.