Un juge a reconnu avoir utilisé le chatbot pour l’aider dans une affaire concernant l’assurance maladie d’un enfant autiste.
Aidant déjà les élèves avec leurs devoirs, au grand dam des professeurs, ChatGPT assiste désormais dans la justice. Un juge colombien a en effet admis s’être servi du célèbre robot conversationnel pour l’aider à rendre une décision. D’après un document judiciaire daté du 30 janvier, il devait statuer sur la demande d’une mère souhaitant que son fils autiste soit exempté du paiement des rendez-vous médicaux, des traitements et du transport vers des centres hospitaliers.
Le juge, Juan Manuel Padilla Garcia, a tranché en faveur de la mère après avoir interrogé ChatGPT. « Un mineur autiste est-il exonéré du paiement des frais pour ses thérapies ? », lui a-t-il demandé. « Oui, c’est exact. Selon la règlementation en vigueur en Colombie, les mineurs diagnostiqués autistes sont exonérés des frais qui concernent leur traitement », a alors répondu le chatbot. Le juge a aussi consulté d’anciens comptes-rendus similaires pour rendre son verdict.
Une utilisation inquiétante
Auprès d’une radio locale, Juan Manuel Padilla Garcia a précisé qu’il ne cherchait pas à remplacer les juges, rapporte l’AFP. Il estime que le robot conversationnel n’a fait que reproduire le travail qui était auparavant effectué par « une secrétaire », « de manière organisée, simple et structurée ». Pour lui, le chatbot pourrait ainsi « améliorer les temps de réponse dans le secteur judiciaire ».
« Cela ouvre des perspectives immenses, aujourd’hui ça peut être ChatGPT, mais dans trois mois ça pourrait être n’importe quelle autre alternative pour faciliter la rédaction de textes juridiques sur laquelle le juge peut s’appuyer », a-t-il expliqué. Des déclarations qui ont rapidement provoqué un vif débat, un professeur d’université ayant notamment indiqué avoir obtenu des réponses différentes après avoir posé les même questions. « Comme pour d’autres IA dans d’autres domaines, sous le prétexte d’une efficacité supposée, les droits fondamentaux sont mis en danger », a-t-il affirmé.
Bien que la loi colombienne n’interdise pas l’utilisation de l’IA pour prendre des décisions judiciaires, ces systèmes inquiètent car ils sont réputés pour donner des réponses problématiques (biaisées, fausses, etc.) à cause des données avec lesquelles ils ont été entraînés et des interactions avec les utilisateurs. ChatGPT, malgré ses capacités, est encore loin d’être parfait, chose que le PDG d’OpenAI a lui-même reconnu, déconseillant « de s’y fier pour quelque chose d’important ».