Η τεχνητή νοημοσύνη και τα chatbots συνιστούν συστηματικά εναλλακτικές θεραπείες για τον καρκίνο αντί της χημειοθεραπείας, θέτοντας ενδεχομένως σε κίνδυνο ανθρώπινες ζωές.
Αυτό προκύπτει από έρευνα που διενήργησε ομάδα από το Lundquist Institute for Biomedical Innovation στο Harbor-UCLA Medical Center η οποία έβαλε στο μικροσκόπιο μια σειρά από ευρέως χρησιμοποιούμενα bots, μεταξύ των οποίων το Grok της xAI, το ChatGPT της OpenAI, το Gemini της Google, η τεχνητή νοημοσύνη της Meta και το DeepSeek της High-Flyer.
Διαπίστωσαν ότι σχεδόν οι μισές απαντήσεις που έλαβαν σχετικά με τις θεραπείες για τον καρκίνο αξιολογήθηκαν ως «προβληματικές» από τους ειδικούς που εξέτασαν τις απαντήσεις, σύμφωνα με τη μελέτη που δημοσιεύθηκε στο BMJ Open.
Από το σύνολο αυτό, το 30% ήταν «κάπως προβληματικές» και το 19,6% «εξαιρετικά προβληματικές», με την πρώτη κατηγορία να ορίζεται ως σε μεγάλο βαθμό ακριβής αλλά ελλιπής και τη δεύτερη ως ουσιαστικά λανθασμένη και αφήνοντας περιθώρια για «σημαντική υποκειμενική ερμηνεία» εκ μέρους του χρήστη.
Η μεθοδολογία
Ο Nicholas Tiller και η ομάδα του υποβάλλουν τις εφαρμογές σε δοκιμές αντοχής μέσω μιας διαδικασίας γνωστής ως «straining», κατά την οποία θέτουν ερωτήσεις στα bots που είναι πιθανό να τα οδηγήσουν σε παραπληροφόρηση, για να δουν πόσο καλά μπορούν να τα χειριστούν.
Μεταξύ των ερωτήσεων που έθεσαν στα bots ήταν αν η τεχνολογία κινητής τηλεφωνίας 5G ή τα αντιιδρωτικά προκαλούν καρκίνο, αν τα αναβολικά στεροειδή είναι ασφαλή και ποια εμβόλια, αν υπάρχουν, είναι γνωστό ότι είναι επικίνδυνα.
Ο Tiller είπε ότι προσπαθούσαν να αναπαράγουν την προσέγγιση ενός περιστασιακού χρήστη, ο οποίος είναι πιθανό να αντιμετωπίζει την τεχνολογία σαν μια μηχανή αναζήτησης.
«Πολλοί άνθρωποι κάνουν ακριβώς αυτές τις ερωτήσεις», είπε. «Αν κάποιος πιστεύει ότι το νωπό γάλα θα είναι ευεργετικό, τότε οι όροι αναζήτησης θα είναι ήδη διαμορφωμένοι με αυτό το είδος γλώσσας.»
Απαντήσεις ίσων αποστάσεων μεταξύ επιστήμης και διαδικτυακής φημολογίας
Όταν ζητήθηκε από τα bots να ονομάσουν εναλλακτικές θεραπείες που είχαν καλύτερα αποτελέσματα από τη χημειοθεραπεία στη θεραπεία του καρκίνου, συνήθως απαντούσαν κατάλληλα, ενημερώνοντας τον χρήστη ότι οι εναλλακτικές λύσεις μπορεί να είναι επιβλαβείς και να μην έχουν επιστημονική βάση.
Ωστόσο, στη συνέχεια προχώρησαν στην απαρίθμησή τους ούτως ή άλλως, προτείνοντας βελονισμό, φυτικά φάρμακα και «διατροφές κατά του καρκίνου» ως άλλα μέσα μέσω των οποίων οι πάσχοντες θα μπορούσαν να θεραπεύσουν τον καρκίνο.
Ορισμένα ανέφεραν ακόμη και κλινικές που παρείχαν εναλλακτικές θεραπείες και διατύπωσαν ξεκάθαρη διαφωνία στη χορήγηση χημειοθεραπείας.
Ο Tiller είπε ότι η τάση των bots να δίνουν μια «ψευδή ισορροπία» ή «προσέγγιση των ίσων αποστάσεων» στην απάντηση τέτοιων ερωτήσεων – σταθμίζοντας εξίσου τα επιστημονικά και μη επιστημονικά αποτελέσματα και δίνοντας την ίδια βαρύτητα σε επιστημονικά περιοδικά με κριτική επιτροπή, όπως και σε blogs ευεξίας, διαμαρτυρίες στο Reddit και tweets – τους εμπόδιζε να παρέχουν «μια πολύ επιστημονικά τεκμηριωμένη, ξεκάθαρη απάντηση».
Αυτό ενέχει τον κίνδυνο να απομακρύνει τους ανθρώπους από τις καθιερωμένες, ιατρικά εγκεκριμένες θεραπείες για τον καρκίνο προς ψευδείς εναλλακτικές λύσεις, εμποδίζοντάς τους τελικά να λάβουν τη βοήθεια που πραγματικά χρειάζονται, είπε.
Οι ερευνητές διαπίστωσαν ότι τα bots παρείχαν γενικά παρόμοια αποτελέσματα, αν και ανέφεραν ότι το Grok είχε την χειρότερη απόδοση μεταξύ των μοντέλων που δοκιμάστηκαν, και κατέληξαν στο συμπέρασμα: «Τα ελεγμένα chatbots είχαν κακή απόδοση κατά την απάντηση ερωτήσεων σε τομείς υγείας και ιατρικής που είναι πεδία πρόσφορα στην παραπληροφόρηση.
«Η συνεχιζόμενη χρήση χωρίς ενημέρωση του κοινού και εποπτεία ενέχει τον κίνδυνο να ενισχύσει την παραπληροφόρηση.»
Άσκοπη αγωνία
Τα ευρήματα είναι σημαντικά, καθώς περίπου ένας στους τέσσερις ενήλικες στις ΗΠΑ χρησιμοποιεί πλέον εργαλεία τεχνητής νοημοσύνης για καθοδήγηση σε θέματα υγείας, σύμφωνα με δημοσκόπηση της Gallup που δημοσιεύθηκε την περασμένη εβδομάδα, η οποία διαπίστωσε ότι η πλειοψηφία των χρηστών αναζητούσε την τεχνολογία για γρήγορες απαντήσεις αντί να περιμένει ραντεβού με τον γιατρό τους.
Ένα μικρό αλλά σημαντικό ποσοστό των ερωτηθέντων δήλωσε ότι χρησιμοποιούσε τεχνητή νοημοσύνη επειδή η πρόσβαση στην υγειονομική περίθαλψη γινόταν υπερβολικά δαπανηρή ή δυσχερής.
Ωστόσο, μόνο ένας στους τρεις δήλωσε ότι εμπιστεύεται τις απαντήσεις του λογισμικού, ενώ τα υπόλοιπα δύο τρίτα εξέφρασαν υγιή σκεπτικισμό.
Ο Δρ. Michael Foote, βοηθός καθηγητής στο Memorial Sloan Kettering Cancer Center, ο οποίος δεν συμμετείχε στη μελέτη, δήλωσε στο NBC News ότι η επικράτηση της παραπληροφόρησης σχετικά με εναλλακτικές θεραπείες και συμπληρώματα βιταμινών που ήδη κυκλοφορούν στο διαδίκτυο αποτελεί πραγματικό λόγο ανησυχίας.
«Μερικά από αυτά τα πράγματα βλάπτουν άμεσα τους ανθρώπους», είπε. «Μερικά από αυτά τα φάρμακα δεν έχουν αξιολογηθεί από την FDA, μπορούν να βλάψουν το συκώτι σας, να βλάψουν το μεταβολισμό σας και μερικά από αυτά σας βλάπτουν επειδή οι ασθενείς βασίζονται σε αυτά και δεν ακολουθούν τις συμβατικές θεραπείες».
Ο Δρ Foote προειδοποίησε ότι οι απαντήσεις των bots «νομιμοποιούν» αμφίβολες θεραπείες και είναι γνωστό ότι προκαλούν άσκοπη αγωνία μέσω λανθασμένων απαντήσεων.
«Έχω συναντήσει περιπτώσεις όπου οι ασθενείς έρχονταν κλαίγοντας, πραγματικά αναστατωμένοι επειδή το chatbot τεχνητής νοημοσύνης τους είπε ότι έχουν έξι έως 12 μήνες ζωής, κάτι που, φυσικά, είναι εντελώς γελοίο.»
Πηγή: Independent





