Μπορεί να υπόσχονται άμεσες και έξυπνες απαντήσεις, όμως οι βοηθοί τεχνητής νοημοσύνης όπως το ChatGPT, το Copilot, το Perplexity και το Gemini φαίνεται πως… τα μπερδεύουν όταν πρόκειται για την επικαιρότητα. Μια διεθνής μελέτη της Ένωσης Ευρωπαϊκών Ραδιοτηλεοπτικών Οργανισμών (EBU) και της BBC, με τη συμμετοχή των βελγικών μέσων VRT NWS και RTBF, αποκαλύπτει ότι 45% των απαντήσεων που έδωσαν οι τέσσερις δημοφιλείς πλατφόρμες ήταν λανθασμένες ή παραπλανητικές.
Στην έρευνα συμμετείχαν 22 δημόσιοι ραδιοτηλεοπτικοί φορείς από 18 χώρες, εξετάζοντας πάνω από 3.000 απαντήσεις που παρήχθησαν από συστήματα τεχνητής νοημοσύνης. Τα ευρήματα δεν αφήνουν περιθώριο αμφιβολίας: το 31% των απαντήσεων περιείχαν ελλιπείς ή λανθασμένες αναφορές σε πηγές, ενώ το 20% εμφάνιζαν σαφείς ανακρίβειες, όπως παρωχημένες ή πλήρως επινοημένες πληροφορίες.
Ο πιο «ανακριβής» βοηθός αναδείχθηκε το Gemini της Google, με σημαντικά λάθη στο 76% των απαντήσεών του. Η VRT NWS ανέφερε ένα χαρακτηριστικό παράδειγμα: όταν ζητήθηκαν οι τελευταίες εξελίξεις για την κρίση στο κόμμα Open VLD, το Gemini απάντησε αναφέροντας τον Paul Van Tigchelt ως υπουργό Δικαιοσύνης — αξίωμα που δεν κατείχε πλέον. Επιπλέον, παρέπεμψε σε γεγονότα που είχαν ήδη ολοκληρωθεί, όπως οι μετεκλογικές διαπραγματεύσεις για τον σχηματισμό κυβέρνησης.
Τα αποτελέσματα επιβεβαιώνουν προηγούμενες έρευνες του BBC, δείχνοντας ότι τα προβλήματα είναι συστημικά και όχι μεμονωμένα. Ο Yves Thiran, συντονιστής του έργου στο RTBF, προειδοποιεί: «Ακόμα κι αν στη δική μας δειγματοληψία μόνο 8% των απαντήσεων περιείχαν σημαντικά λάθη — έναντι του 20% του μέσου όρου — το ποσοστό παραμένει ανησυχητικά υψηλό».
Σύμφωνα με τους ερευνητές, οι βοηθοί τεχνητής νοημοσύνης δυσκολεύονται να ξεχωρίσουν τις παλιές ειδήσεις από τις τρέχουσες και να ιεραρχήσουν σωστά τα γεγονότα. «Η μελέτη δείχνει ότι δεν μπορούμε ακόμη να εμπιστευτούμε τα μοντέλα γλώσσας για αξιόπιστη ενημέρωση», τονίζει ο Thiran. «Η ανθρώπινη εποπτεία και επιβεβαίωση παραμένουν απαραίτητες κάθε φορά που η τεχνητή νοημοσύνη εμπλέκεται στην παραγωγή ειδήσεων».
Οι νέοι ενημερώνονται όλο και περισσότερο μέσω chatbot
Μια άλλη έρευνα του Ινστιτούτου Reuters (Ιούνιος 2025) σε 48 χώρες κατέγραψε ότι 6% των χρηστών χρησιμοποιούν chatbot τεχνητής νοημοσύνης για ενημέρωση, ποσοστό που φτάνει το 15% στις ηλικίες κάτω των 25 ετών.
Αντίστοιχη μελέτη του BBC τον Φεβρουάριο του ίδιου έτους είχε δείξει ότι πάνω από τις μισές απαντήσεις (51%) των chatbot περιείχαν ανακρίβειες, είτε σε δηλώσεις, ημερομηνίες και αριθμούς, είτε σε λανθασμένες παραπομπές σε άρθρα του ίδιου του BBC.
Το συμπέρασμα: πάντα να ελέγχετε την πηγή
Ακόμα κι αν ένα chatbot ισχυρίζεται ότι αντλεί πληροφορίες από αξιόπιστα μέσα, όπως το VRT NWS ή το BBC, δεν είναι βέβαιο ότι μεταφέρει σωστά το περιεχόμενο. Οι ερευνητές καταλήγουν σε ένα σαφές μήνυμα: όταν πρόκειται για ενημέρωση, η τεχνητή νοημοσύνη δεν αντικαθιστά την ανθρώπινη κρίση.
Η καλύτερη πρακτική παραμένει απλή — διαβάστε το πρωτότυπο άρθρο και ελέγξτε αν όσα διαβάσατε μέσω chatbot ανταποκρίνονται στην πραγματικότητα.
Δεν υπάρχουν σχόλια για το άρθρο "Οι βοηθοί τεχνητής νοημοσύνης κάνουν συχνά λάθη στις απαντήσεις τους"