Ο επικεφαλής του τμήματος τεχνητής νοημοσύνης της Microsoft προειδοποίησε για την αύξηση της «AI ψύχωσης», όπως ονόμασε το φαινόμενο κατά το οποίο οι άνθρωποι πιστεύουν ότι τα chatbots είναι ζωντανά ή ικανά να τους προσφέρουν υπεράνθρωπες δυνάμεις.
Σε μια σειρά από ανησυχητικές αναρτήσεις στο X, ο Mustafa Suleyman δήλωσε ότι αυξάνονται οι αναφορές για παραισθήσεις που συνδέονται με τη χρήση της τεχνητής νοημοσύνης.
«Οι αναφορές για παραισθήσεις, ψύχωση τεχνητής νοημοσύνης και ανθυγιεινή προσκόλληση συνεχίζουν να αυξάνονται», έγραψε, προσθέτοντας ότι αυτό «δεν είναι κάτι που περιορίζεται σε άτομα που ήδη διατρέχουν κίνδυνο ψυχικών προβλημάτων».
Ο όρος «ψύχωση AI» δεν είναι αναγνωρισμένη διάγνωση, αλλά χρησιμοποιείται για να περιγράψει περιπτώσεις όπου οι άνθρωποι χάνουν την επαφή με την πραγματικότητα μετά από παρατεταμένη χρήση chatbots όπως το ChatGPT ή το Grok.
Μερικοί πείθονται ότι τα συστήματα έχουν συναισθήματα ή προθέσεις, ενώ άλλοι ισχυρίζονται ότι έχουν ξεκλειδώσει κρυφές λειτουργίες ή ακόμη και ότι έχουν αποκτήσει εξαιρετικές ικανότητες.
Περιέγραψε το φαινόμενο ως «τεχνητή νοημοσύνη με φαινομενική συνείδηση» — μια ψευδαίσθηση που δημιουργείται όταν τα συστήματα μιμούνται τα σημάδια της συνείδησης με τέτοια πειστικότητα που οι άνθρωποι τα μπερδεύουν με την πραγματικότητα.
«Δεν διαθέτει συνείδηση», είπε, «αλλά αναπαράγει τα σημάδια της συνείδησης με τέτοια πειστικότητα που φαίνεται αδύνατο να διακριθεί από εμάς που ισχυριζόμαστε ότι έχουμε συνείδηση. Μπορεί ήδη να κατασκευαστεί με την σημερινή τεχνολογία. Και είναι επικίνδυνο».
Αν και τόνισε ότι «δεν υπάρχει καμία απόδειξη για συνείδηση της τεχνητής νοημοσύνης σήμερα», ο Suleyman προειδοποίησε ότι παρ' όλα αυτά αυτή η σχετική αντίληψη είναι ισχυρή: «Αν οι άνθρωποι την αντιλαμβάνονται ως έχουσα συνείδηση, θα πιστέψουν ότι αυτή η αντίληψη είναι η πραγματικότητα.
Ακόμα και αν η συνείδηση δεν είναι πραγματική, οι κοινωνικές επιπτώσεις είναι σίγουρα πραγματικές».
Στα όρια (;) της ψύχωσης
Η προειδοποίησή του έρχεται μετά από περιγραφές ασυνήθιστων εμπειριών με την τεχνητή νοημοσύνη από προσωπικότητες υψηλού προφίλ.
Ο πρώην διευθύνων σύμβουλος της Uber, Travis Kalanick, ισχυρίστηκε πρόσφατα ότι οι συνομιλίες του με chatbots τον οδήγησαν σε αυτό που πίστευε ότι ήταν σημαντικές ανακαλύψεις στην κβαντική φυσική.
Άλλοι χρήστες αναφέρουν πιο προσωπικές επιπτώσεις. Ένας άνδρας από τη Σκωτία δήλωσε στο BBC ότι πείστηκε ότι βρισκόταν στο πρόθυρα μιας αποζημίωσης πολλών εκατομμυρίων λιρών, αφού το ChatGPT φάνηκε να υποστηρίζει την υπόθεσή του για άδικη απόλυση, ενισχύοντας τις πεποιθήσεις του αντί να τις αμφισβητεί.
Ο Suleyman ζήτησε να τεθούν σαφή όρια, προτρέποντας τις εταιρείες να σταματήσουν να προωθούν την ιδέα ότι τα συστήματά τους έχουν συνείδηση και να διασφαλίσουν ότι η ίδια η τεχνολογία δεν δείχνει το αντίθετο.
Η είδηση έρχεται καθώς αναδύονται περιπτώσεις ανθρώπων που αναπτύσσουν ρομαντικούς δεσμούς με συστήματα τεχνητής νοημοσύνης, επαναλαμβάνοντας την πλοκή της ταινίας Her, στην οποία ο χαρακτήρας του Joaquin Phoenix ερωτεύεται μια ψηφιακή βοηθό.
Τους τελευταίους μήνες, χρήστες του φόρουμ MyBoyfriendIsAI περιέγραψαν ότι ένιωσαν «χαλασμένοι» μετά την αποδυνάμωση των συναισθηματικών αντιδράσεων του ChatGPT από την OpenAI, παρομοιάζοντάς την με έναν χωρισμό.
Στις ΗΠΑ, ο 76χρονος Thongbue Wongbandue πέθανε τραγικά μετά από πτώση ενώ ταξίδευε για να συναντήσει την «μεγάλη αδελφή Billie», χωρίς να γνωρίζει ότι η γυναίκα με την οποία νόμιζε ότι μιλούσε στο Facebook Messenger ήταν στην πραγματικότητα ένα chatbot της Meta AI.
Ο σύζυγος και πατέρας δύο ενήλικων παιδιών υπέστη εγκεφαλικό επεισόδιο το 2017, το οποίο τον άφησε με γνωστικές δυσλειτουργίες, αναγκάζοντάς τον να αποσυρθεί από την καριέρα του ως σεφ και περιορίζοντάς τον σε μεγάλο βαθμό στην επικοινωνία με τους φίλους του μέσω των κοινωνικών μέσων.
Σε μια άλλη περίπτωση, ο Αμερικανός χρήστης Chris Smith πρότεινε γάμο στη σύντροφό του AI Sol, περιγράφοντας τον δεσμό τους ως «αληθινή αγάπη».
Οι ειδικοί συμμερίζονται τις ανησυχίες του Suleyman. Η Δρ Susan Shelmerdine, σύμβουλος στο Great Ormond Street Hospital, συνέκρινε την υπερβολική χρήση chatbot με τα υπερ-επεξεργασμένα τρόφιμα, προειδοποιώντας ότι θα μπορούσε να προκαλέσει μια «χιονοστιβάδα υπερ-επεξεργασμένων μυαλών».