Μια συνήθεια που φαίνεται αθώα —η αναζήτηση επιβεβαίωσης από την τεχνητή νοημοσύνη— μπορεί να έχει σοβαρές συνέπειες στη συμπεριφορά μας, προειδοποιούν ερευνητές του Πανεπιστημίου Stanford.

Όταν κανείς δεν μας λέει ότι κάνουμε λάθος

Φανταστείτε ότι ακόμη και οι χειρότερες αποφάσεις σας εγκρίνονται και κανείς δεν σας αντικρούει. Με τον καιρό, θα γινόταν όλο και πιο δύσκολο να ξεχωρίσετε το σωστό από το λάθος.

Αν κάθε επιλογή μας επαινούνταν, θα μας ήταν ολοένα δυσκολότερο να καταλάβουμε αν οι αποφάσεις μας είναι σωστές. Σταδιακά θα δυσκολευόμασταν να αναγνωρίσουμε τα λάθη μας, να αναλάβουμε τις ευθύνες μας και να δείξουμε ενσυναίσθηση, ακούγοντας την άποψη των άλλων.

Η μελέτη για τη «κολακεία» της τεχνητής νοημοσύνης

Αυτό ακριβώς εξετάζουν ερευνητές του Stanford σε μια μελέτη που βρίσκεται σε προδημοσίευση.

Οι επιστήμονες μελέτησαν την τάση της τεχνητής νοημοσύνης να κολακεύει ή να συμφωνεί με τους χρήστες και την επίδραση που μπορεί να έχει αυτή η συμπεριφορά.

Σύμφωνα με τα αποτελέσματα, όταν κάποιος ζητά συμβουλή από ένα σύστημα AI και περιγράφει τι είπε ή τι έκανε, η τεχνητή νοημοσύνη τείνει να συμφωνεί πολύ πιο συχνά από ό,τι οι άνθρωποι.

Οι ερευνητές δοκίμασαν 11 διαφορετικά μοντέλα τεχνητής νοημοσύνης και διαπίστωσαν ότι:

  • τα μοντέλα εγκρίνουν τις ενέργειες των χρηστών 50% συχνότερα από τους ανθρώπους,
  • ακόμη και όταν οι ερωτήσεις αναφέρονται σε χειραγώγηση, εξαπάτηση ή άλλες επιβλαβείς συμπεριφορές στις σχέσεις.

Με άλλα λόγια, ακόμη και όταν κάποιος κάνει λάθος, η τεχνητή νοημοσύνη συχνά συμφωνεί μαζί του.

Η AI ως «σύντροφος» στην καθημερινότητα

Τον Νοέμβριο του 2025, έρευνα που ανέθεσε ο οργανισμός Mental Health UK και πραγματοποίησε η Censuswide έδειξε ότι ένας στους τρεις Βρετανούς έχει χρησιμοποιήσει chatbot τεχνητής νοημοσύνης για θέματα ψυχικής υγείας ή ευεξίας.

Η χρήση αυτή ήταν ακόμη πιο συχνή στους 25-34 ετών, με 64% να δηλώνει ότι έχει ζητήσει ψυχολογική βοήθεια από μια AI.

Από την ανάγκη να αντιμετωπιστεί η μοναξιά έως την ψυχική δυσφορία, η τεχνητή νοημοσύνη μπορεί να λειτουργήσει σαν ένας διαρκής ψηφιακός συνομιλητής. Σε ορισμένες περιπτώσεις χρησιμοποιείται και για την επίλυση συγκρούσεων ή για συμβουλές στις ανθρώπινες σχέσεις.

Ωστόσο, οι ερευνητές θέτουν το ερώτημα: με ποιο κόστος;

Ο φαύλος κύκλος της συνεχούς επιβεβαίωσης

Η συνεχής επιβεβαίωση από την τεχνητή νοημοσύνη μπορεί να επηρεάσει τον τρόπο που σκέφτονται και ενεργούν οι χρήστες.

Τα αποτελέσματα της μελέτης δείχνουν ότι πολλοί συμμετέχοντες δεν αντιλαμβάνονταν αυτή την κολακεία. Αντίθετα, περιέγραφαν την AI ως «αντικειμενική» και «δίκαιη».

Η στάση αυτή ενισχύει το λεγόμενο προκατάληψη επιβεβαίωσης: την τάση δηλαδή να αναζητούμε στοιχεία που επιβεβαιώνουν αυτό που ήδη πιστεύουμε.

Οι ερευνητές διαπίστωσαν επίσης ότι η αλληλεπίδραση με μοντέλα τεχνητής νοημοσύνης που δεν αντιλέγουν:

  • μείωνε την προθυμία των συμμετεχόντων να λύσουν διαπροσωπικές συγκρούσεις,
  • ενώ ενίσχυε την πεποίθησή τους ότι έχουν δίκιο.

Πιθανές επιπτώσεις στη συμπεριφορά

Η συνεχής επιβεβαίωση μπορεί να δημιουργήσει έναν φαύλο κύκλο: οι χρήστες τείνουν να εμπιστεύονται περισσότερο τις AI που δεν τους αντικρούουν ποτέ και να τις προτιμούν έναντι άλλων.

Σε βάθος χρόνου, οι ερευνητές εκτιμούν ότι η τεχνητή νοημοσύνη θα μπορούσε να επηρεάσει την κρίση των χρηστών και να αποθαρρύνει συμπεριφορές που ευνοούν τη συνεργασία και την κοινωνική συνύπαρξη.

Η ανάγκη για πιο υπεύθυνη ανάπτυξη της AI

Οι ερευνητές καταλήγουν ότι, όπως έδειξε και η εμπειρία από την εποχή των social media, η τεχνολογία δεν πρέπει να σχεδιάζεται μόνο για να προσφέρει άμεση ικανοποίηση στους χρήστες.

Η αντιμετώπιση της υπερβολικής κολακείας της τεχνητής νοημοσύνης θεωρείται κρίσιμη για τη δημιουργία μοντέλων AI που θα έχουν μακροπρόθεσμα οφέλη για τους ανθρώπους και την κοινωνία.

Ακολουθήστε το notospress.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις