ChatGPT possède de nombreuses fonctions de sécurité intégrées et son utilisation est généralement considérée comme sûre. Cependant, il peut exister des problèmes de confidentialité, et comme tout autre outil en ligne, il n'est pas à l'abri des cyber-menaces.
Risque de partialité
Comme tout modèle de machine learning, ChatGPT intègre les partis pris de ses données d'apprentissage. Si les données de ChatGPT sont biaisées, ses résultats peuvent également l'être, ce qui peut entraîner des réponses injustifiées, discriminatoires, voire offensantes.
Se confier exclusivement à une intelligence artificielle peut entraîner un isolement social. En l'absence d'interactions humaines, les utilisateurs risquent de se couper de leur entourage ou des solutions thérapeutiques adaptées, aggravant ainsi leur détresse.
les réponses ont été classées en « correctes » ou « incorrectes » et comparées statistiquement par test du Chi-2. Résultats : la version 3.5 de ChatGPT a obtenu un taux de bonnes réponses de 69,8 % en 2023 et 70,5 % en 2024. La version 4.0 a montré des taux de 77,5 % en 2023 et 81,5 % en 2024.
Dans des tests standardisés, comme les examens de certification des médecins, ChatGPT fait étonnamment bonne figure lorsqu'il s'agit de questions à choix multiple. Le défi est tout autre quand il s'agit de répondre à une question ouverte — comme en posent les patients dans la vraie vie.
ChatGPT n'est pas intrinsèquement dangereux , mais son utilisation dans un environnement où abondent les fichiers partagés, les identifiants exposés et les données SaaS non surveillées depuis des années engendrent des risques importants. En 2026, les autorités de réglementation exigeront des entreprises qu'elles prouvent leur capacité à contrôler les informations auxquelles les systèmes d'IA peuvent accéder, stocker et reproduire.
Dans la plupart des cas il recrachera des informations qu'il a enregistré, et donc une grande partie des infos seront crédibles, mais souvent partiellement fausses. Pour les sujets les plus pointus, il n'aura pas assez de données et inventera de toutes pièces des réponses farfelues.
ChatGPT peut être utile, mais il n'est pas toujours fiable.
Parfois, cela peut paraître assuré, même à tort. Ce phénomène est souvent qualifié d'hallucination : le modèle produit des réponses factuellement inexactes, telles que des définitions, des dates ou des faits incorrects.
L'article conclut que l'utilisation de ChatGPT par le conseiller en prévention pour obtenir des informations et donner des conseils de sécurité présente des risques importants. ChatGPT a régulièrement donné des informations inexactes, voire dommageables, susceptibles de conduire à des situations dangereuses.
En conclusion, bien que ChatGPT soit un outil incroyablement puissant, il n'est pas sans limites . Il est important d'interpréter les réponses avec prudence, notamment en ce qui concerne les faits, les statistiques et les références. Il convient de toujours vérifier les informations fournies en les recoupant avec des sources fiables.
Les menaces chimiques, biologiques, radiologiques ou encore nucléaires sont parmi les questions à ne jamais poser à un chatbot.
Les dangers sont couramment catégorisés : dangers biologiques – bactéries, virus, champignons, insectes, plantes, et d'autres animaux. dangers chimiques – en fonction des propriétés physiques, chimiques et toxiques d'une substance ou d'un produit.
Les chatbots IA, tout comme iCloud ou Google Photos, sont susceptibles d'être piratés, exposant les utilisateurs à des risques de sécurité. Les images téléchargées peuvent contenir des détails sensibles, comme des documents visibles en arrière-plan ou des informations biométriques.
Mais attention de ne pas transmettre de documents contenant vos noms complets, votre numéro de sécurité sociale. Ces informations sont classées comme sensibles par le Règlement général sur la protection des données (RGPD). Leur transmission à un chatbot expose à une perte de confidentialité, voire à un usage détourné.
Les résultats indiquent que ChatGPT n'est pas un outil fiable car il recommande des revues douteuses pour la publication .
BingAI, l'IA de Microsoft
Avec la nouvelle application Bing, vous pouvez rechercher et accéder à votre Copilot à tout moment et en tout lieu.
Exemples de risques sociaux : Risques pour la santé: Risques pour de maladie (ex : SIDA) Risques d'accident (ex : accidents au travail)
Vol d'identité et collecte d'informations
Des personnes malveillantes peuvent utiliser ChatGPT pour collecter des informations à des fins malveillantes . Ce chatbot, entraîné sur de vastes volumes de données, possède une quantité considérable d'informations qui pourraient être utilisées à des fins néfastes si elles tombaient entre de mauvaises mains.
Problèmes de précision et « hallucinations »
L'une des plaintes les plus courantes dans les avis négatifs sur ChatGPT est sa tendance à « halluciner », ce qui est une façon polie de dire qu'il invente des choses.
Les formules de politesse avec les chatbots sont souvent considérées comme superflues et peuvent coûter très cher aux entreprises. Et pour cause : les outils utilisant l'intelligence artificielle nécessitent des ressources importantes d'électricité, d'eau, de métaux rares pour répondre aux demandes des utilisateurs.
« Les gens font très confiance à ChatGPT , ce qui est intéressant, car l'IA hallucine. On devrait plutôt se méfier de la technologie », a déclaré Altman.
La meilleure façon d'utiliser ChatGPT sans se faire prendre est d'utiliser un détecteur d'IA. Ce détecteur, comme son nom l'indique, est un outil spécialement conçu pour identifier les textes générés par l'intelligence artificielle.
•
C'est une règle de base : ne communiquez jamais votre numéro de sécurité sociale, votre carte d'identité, votre passeport, votre adresse complète ou votre numéro de téléphone. Certaines IA sont programmées pour filtrer et anonymiser ces données, mais il demeure toujours un risque.
Des chercheurs comme Baidoo-Anu estiment que l'application de Chat GPT dans l'éducation peut entraîner des problèmes tels que le manque de communication, une capacité de compréhension limitée, des données d'entraînement inexactes, un manque d'innovation, une compréhension insuffisante du contexte et des fuites de données personnelles (Baidoo-Anu et Owusu Ansah, 2023).
De plus, chat GPT ne peut pas accéder à internet, il ne peut donc pas fournir des informations en temps réel, ni utiliser des informations de localisation. Il ne sera donc pas en mesure d'apporter des réponses sur des évènements récents. Pensez donc bien à toujours vérifier les données qui peuvent être faussées.