OpenAI says its new model GPT-2 is too dangerous to release (2019)
OpenAI a présenté GPT-2, un modèle de génération de texte entraîné sur des millions de pages web capable de produire des prolongements cohérents et adaptables à divers styles d'écriture. L'organisation a choisi de ne pas publier l'algorithme complet ni les jeux de données et le code d'entraînement, diffusant seulement une version beaucoup plus petite, en invoquant des risques d'abus comme la production de fausses informations, l'usurpation d'identité et le spam. Des spécialistes en apprentissage automatique reconnaissent les avancées de GPT-2, notamment sa capacité à gérer des sens multiples et à générer des passages plus longs, tout en signalant des défauts de cohérence et de répétition et en doutant que la retenue d'OpenAI soit une mesure efficace à long terme. Certains chercheurs accusent OpenAI d'exagérer les dangers pour attirer l'attention et limiter l'accès à la recherche, tandis que d'autres saluent l'initiative comme un déclencheur de débat éthique sur la diffusion des technologies d'IA. L'article conclut que la montée de modèles puissants pose des choix de politique publique et de gouvernance difficiles, et qu'il est probablement vain d'empêcher totalement leur prolifération, comme l'illustre le précédent de la diffusion du chiffrement.