Ένας 60χρονος άνδρας χωρίς ιστορικό ψυχικής ασθένειας προσήλθε στο τμήμα επειγόντων περιστατικών ενός νοσοκομείου επιμένοντας ότι ο γείτονάς του τον δηλητηρίαζε. Τις επόμενες 24 ώρες, οι παραισθήσεις του επιδεινώθηκαν και προσπάθησε να δραπετεύσει από το νοσοκομείο.
Οι γιατροί τελικά ανακάλυψαν ότι ο άνδρας έπαιρνε καθημερινά βρωμιούχο νάτριο, ένα ανόργανο άλας που χρησιμοποιείται κυρίως για βιομηχανικούς και εργαστηριακούς σκοπούς, όπως καθαρισμό και επεξεργασία νερού.
Το αγόρασε από το διαδίκτυο αφού το ChatGPT του είπε ότι μπορούσε να το χρησιμοποιήσει αντί για επιτραπέζιο αλάτι, επειδή ανησυχούσε για τις επιπτώσεις του αλατιού στην υγεία του. Το βρωμιούχο νάτριο μπορεί να συσσωρευτεί στον οργανισμό προκαλώντας μια πάθηση που ονομάζεται βρωμισμός, με συμπτώματα όπως παραισθήσεις, λήθαργο και διαταραχή του συντονισμού.
Είναι περιπτώσεις όπως αυτή που κάνουν τους ειδικούς ανησυχούν για την έναρξη της λειτουργίας του ChatGPT Health στην Αυστραλία.
Ένας περιορισμένος αριθμός Αυστραλών χρηστών έχει ήδη πρόσβαση στην πλατφόρμα τεχνητής νοημοσύνης, η οποία τους επιτρέπει να «συνδέουν με ασφάλεια ιατρικά αρχεία και εφαρμογές ευεξίας» για να αντλούν απαντήσεις «πιο σχετικές και χρήσιμες για εσάς». Οι χρήστες του ChatGPT στην Αυστραλία μπορούν να εγγραφούν σε λίστα αναμονής για πρόσβαση.
Οι προκλήσεις
«Το ChatGPT Health παρουσιάζεται ως μια διεπαφή που μπορεί να βοηθήσει τους ανθρώπους να κατανοήσουν τις πληροφορίες για την υγεία και τα αποτελέσματα των εξετάσεων ή να λάβουν συμβουλές για τη διατροφή, χωρίς όμως να αντικαθιστά τον κλινικό γιατρό», εξηγεί στον Guardian ο Alex Ruani, διδακτορικόw ερευνητήw στον τομέα της παραπληροφόρησης για την υγεία στο University College του Λονδίνου
«Η πρόκληση είναι ότι, για πολλούς χρήστες, δεν είναι προφανές πού τελειώνουν οι γενικές πληροφορίες και πού αρχίζουν οι ιατρικές συμβουλές, ειδικά όταν οι απαντήσεις ακούγονται σίγουρες και εξατομικευμένες, ακόμα και αν είναι παραπλανητικές».
Ο Ruani επισημαίνει ότι έχουν υπάρξει πάρα πολλά «τρομακτικά» παραδείγματα του ChatGPT που «αφήνουν έξω βασικές λεπτομέρειες ασφαλείας, όπως παρενέργειες, αντενδείξεις, προειδοποιήσεις για αλλεργίες ή κινδύνους σχετικά με συμπληρώματα, τρόφιμα, δίαιτες ή ορισμένες πρακτικές».
«Αυτό που με ανησυχεί είναι ότι δεν υπάρχουν δημοσιευμένες μελέτες που να εξετάζουν συγκεκριμένα την ασφάλεια του ChatGPT Health», εξηγεί ο Ruani.
Το ChatGPT έχει αναπτυχθεί από την OpenAI, η οποία χρησιμοποίησε το εργαλείο HealthBench για να αναπτύξει το ChatGPT Health. Η HealthBench απασχολεί γιατρούς για να ελέγχει και να αξιολογεί την απόδοση των μοντέλων τεχνητής νοημοσύνης όταν απαντούν σε ερωτήσεις σχετικά με την υγεία.
Ο Ruani δήλωσε ότι η πλήρης μεθοδολογία που χρησιμοποιεί η HealthBench και οι αξιολογήσεις της «είναι ως επί το πλείστον μη δημοσιοποιημένες και δεν περιγράφονται σε ανεξάρτητες μελέτες που έχουν αξιολογηθεί από ομότιμους».
«Το ChatGPT Health δεν ρυθμίζεται ως ιατρική συσκευή ή διαγνωστικό εργαλείο. Επομένως, δεν υπάρχουν υποχρεωτικοί έλεγχοι ασφάλειας, αναφορές κινδύνου, επιτήρηση μετά τη διάθεση στην αγορά και απαίτηση δημοσίευσης δεδομένων δοκιμών».
Περισσότεροι από 200 γιατροί από 60 χώρες
Ένας εκπρόσωπος της OpenAI δήλωσε στο Guardian ότι η εταιρεία είχε συνεργαστεί με περισσότερους από 200 γιατρούς από 60 χώρες «για να συμβουλεύσει και να βελτιώσει τα μοντέλα που τροφοδοτούν το ChatGPT Health».
«Το ChatGPT Health είναι ένας ειδικός χώρος όπου οι συνομιλίες για την υγεία παραμένουν ξεχωριστές από τις υπόλοιπες συνομιλίες σας, με ισχυρή προστασία της ιδιωτικής ζωής από προεπιλογή», δήλωσε ο εκπρόσωπος.
Τα δεδομένα του ChatGPT Health είναι κρυπτογραφημένα και υπόκεινται σε προστασία της ιδιωτικής ζωής από προεπιλογή.
Η κοινοποίηση σε τρίτους θα πραγματοποιείται με τη συγκατάθεση του χρήστη ή σε περιορισμένες περιπτώσεις που περιγράφονται στην πολιτική απορρήτου της OpenAI.
Ιατρικά έξοδα και αναμονές τροφοδοτούν την "πελατεία"
Η διευθύνουσα σύμβουλος του Consumers Health Forum της Αυστραλίας, Δρ Elizabeth Deveny, δήλωσε ότι η αύξηση των ιατρικών εξόδων που επιβαρύνουν τους ασθενείς και οι μεγάλες αναμονές για να δουν γιατρό οδηγούν τους ανθρώπους στην τεχνητή νοημοσύνη.
Είπε ότι το ChatGPT Health μπορεί να είναι χρήσιμο για να βοηθήσει τους ανθρώπους να διαχειριστούν γνωστές χρόνιες παθήσεις και να ερευνήσουν τρόπους για να παραμείνουν υγιείς. Η ικανότητα της τεχνητής νοημοσύνης να δίνει απαντήσεις σε διαφορετικές γλώσσες «παρέχει ένα πραγματικό όφελος σε άτομα που δεν έχουν καλή γνώση της αγγλικής γλώσσας», είπε.
Η Deveny ανησυχεί ότι οι άνθρωποι θα λάβουν τις συμβουλές του ChatGPT Health ως έχουν και ότι «οι μεγάλες παγκόσμιες εταιρείες τεχνολογίας κινούνται ταχύτερα από τις κυβερνήσεις», θέτοντας τους δικούς τους κανόνες σχετικά με την προστασία της ιδιωτικής ζωής, τη διαφάνεια και τη συλλογή δεδομένων.
«Δεν πρόκειται για ένα μικρό μη κερδοσκοπικό πείραμα που γίνεται με καλή πίστη. Πρόκειται για μία από τις μεγαλύτερες εταιρείες τεχνολογίας στον κόσμο.
Όταν οι εμπορικές πλατφόρμες καθορίζουν τους κανόνες, τα οφέλη τείνουν να πηγαίνουν σε άτομα που διαθέτουν ήδη πόρους, εκπαίδευση και γνώση του συστήματος. Οι κίνδυνοι βαρύνουν όσους δεν τα έχουν».
Είπε ότι η αδράνεια των κυβερνήσεων έχει αφήσει τους καταναλωτές υγειονομικών υπηρεσιών να αντιμετωπίσουν σχεδόν μόνοι τους την κοινωνική μεταμόρφωση που φέρνει η τεχνητή νοημοσύνη.
«Χρειαζόμαστε σαφή όρια, διαφάνεια και εκπαίδευση των καταναλωτών, ώστε οι άνθρωποι να μπορούν να κάνουν επιλογές σχετικά με το αν και πώς θα χρησιμοποιήσουν την τεχνητή νοημοσύνη για την υγεία τους έχοντας την κατάλληλη ενημέρωση», πρόσθεσε.
«Δεν πρόκειται για το να σταματήσουμε την τεχνητή νοημοσύνη. Πρόκειται για το να δράσουμε πριν τα λάθη, οι προκαταλήψεις και η παραπληροφόρηση αναπαραχθούν με ταχύτητα και σε κλίμακα, με τρόπους που είναι σχεδόν αδύνατο να αντιστραφούν», καταλήγει.





