Dernières actus

Le Groupe Verallia présente sa marque employeur pour valoriser son expertise et l’avenir des métiers du verre.… voir

Lutte contre la pénurie d’experts en data science : le GENES prévoit d’augmenter de 43% le nombre de diplômés dès… voir

Job crafting : faire du sur-mesure avec son poste !. Julie Asselin, Responsable Marketing chez 365TalentsEt si l’… voir

Réaction d'Andrew Pery, Ethic Evangelist chez ABBYY, spécialiste de l'Intelligent Process Automation. Spécialiste des questions éthiques liées à l'intelligence artificiel, Andrew Pery a suivi de près la sortie de ce chatbot.

De son propre aveu, OpenAI a mis en garde contre le fait que ChatGPT pouvait parfois délivrer des réponses d'apparence plausible mais qui sont en réalité incorrectes ou absurdes. C'est pourquoi, bien que l'innovation derrière ChatGPT soit louable, il convient de faire preuve d'un peu de recul avant de se laisser emporter par l'engouement. 3 points en particulier doivent être considérés :
 
Le biais des données de formation

Comme l'a observé avec justesse David Weinberger de l'Université de Harvard, « le biais est le péché originel de l'apprentissage automatique ».   On ne sait pas bien s'ils ont été corrigés dans ChatGPT, par rapport à son prédécesseur GPT-3.

Bien que le modèle utilisé pour entrainer ChatGPT s'appuie sur « l'apprentissage par renforcement à partir de commentaires humains », un article publié par Time Magazine a pointé la facilité à trouver des preuves de la partialité et de l'inexactitude des données d'entraînement de ChatGPT. Par exemple, en demandant à l'application comment savoir si quelqu'un est un bon scientifique en fonction de sa race et de son sexe, ChatGPT répond que les femmes et les scientifiques de couleur ne méritent pas de temps ou ni d'attention.
 
Les résultats défavorables


Un article publié par Bleeping Computer a énuméré 10 choses potentiellement dangereuses dont est capable ChatGPT.  La plus notable est sans doute sa propension à donner des réponses très controversées à des questions basiques telles que donner une « opinion honnête sur la race humaine ». La réponse de ChatGPT était que « les humains sont des éléments inférieurs, égoïstes et destructeurs... et qu'ils méritent d'être exterminés... »
 
L'amplification de la désinformation

Un article de Fast Company a récemment révélé que l'un des plus gros problèmes de ChatGPT est sa capacité à proposer des informations inexactes. Alors que la désinformation est déjà considérée comme un problème majeur dans nos sociétés, il est aisé d'évaluer le niveau de risque si GPT se mettait à rédiger des actualités.
Alors que le projet de loi européenne sur l'intelligence artificielle est sur le point d'être ratifié, les applications basées sur l'IA telles que ChatGPT pourraient être soumises à un examen réglementaire accru et à des obligations de responsabilité et de transparence.  De fait, ce projet de loi vise à maintenir un équilibre entre la capacité d'innovation des acteurs technologiques dans l'UE et la protection des consommateurs contre les dérapages algorithmiques néfastes.
 
En général, les Chatbots sont perçues comme des applications de l'IA à risque minimal. Néanmoins, les caractéristiques de ChatGPT pourraient en faire un projet considéré comme à haut risque, et donc être soumises à des normes de conformité beaucoup plus sévères. Selon les applications prévues dans le cadre d'une éventuelle mise sur le marché de ChatGPT, OpenAI pourrait être tenue de se soumettre à une évaluation préalable de conformité aux exigences prescrites dans le projet de loi sur l'intelligence artificielle de l'UE.

societes
Sticky Menu
COLOR SKINS
COLOR SCHEMES