ChatGPT hallucine dans un exercice sur les réseaux

Écouter cet article en podcast

Lors d’un contrôle sur les réseaux et en particulier sur l’Architecture TCP/IP, la question à choix multiples suivante a été posée :

En la soumettant à ChatGPT avec le modèle GPT-4o, la réponse a été la suivante :

Cela ne correspond pas à la réponse attendue pour 10 sous-réseaux. L’adresse étant de classe C, cela veut dire qu’il y a 24 bits pour la partie Réseau, ce qui laisse 8 bits pour constituer des sous-réseaux. Comme nous devons faire 10 sous-réseaux, il nous faut 4 bits (24=16) car avec 3 bits, nous ne pouvons constituer que 8 sous-réseaux. Ce qui nous laisse 4 bits pour les hôtes. Cela donne 14 hôtes (24-2 puisque deux adresses sont réservées pour l’adresse réseau et l’adresse de diffusion). Le résultat est donc b) et f) et non pas c) et d)

En redemandant à chatGPT de refaire la question avec le modèle o1 pour un raisonnement avancé, il donne la réponse suivante :

Voulant connaître la raison de ce choix, je demande à ChatGPT pourquoi il n’a pas choisi b) et f). Voilà sa réponse :

Voulant en savoir plus, je demande quel est le corrigé officiel sur lequel il se base et il répond :

C’est là qu’on voit que ChatGPT hallucine. Je lui demande de corriger un exercice posé dans le contrôle 2425_CC1_TCP-IP.pdf. Il fournit une réponse erronée. Quand il doit justifier sa réponse, il s’appuie sur un corrigé qui n’a jamais été publié et encore moins distribué !!!

D’où la nécessité de toujours VÉRIFIER  les sources…

Enfin, en lui faisant remarquer que le corrigé officiel n’a jamais été distribué, il répond :