Οι πλατφόρμες τεχνητής νοημοσύνης (AI) χρησιμοποιούνται ολοένα και περισσότερο για ιατρικές συμβουλές – από απλές ερωτήσεις υγείας μέχρι καθοδήγηση για φάρμακα. Νέα επιστημονική μελέτη, ωστόσο, δείχνει ότι με σχετικά απλές τεχνικές χειραγώγησης, τα συστήματα αυτά μπορούν να οδηγηθούν σε επικίνδυνα λάθη, ακόμη και σε συστάσεις που απειλούν άμεσα την υγεία των ασθενών.
Τα μοντέλα AI (Large Language Models – LLM) διεκδικούν ολοένα και πιο ενεργό ρόλο στον χώρο της υγειονομικής περίθαλψης: από την εκπαίδευση ασθενών και την υποστήριξη κλινικών αποφάσεων, έως την προκαταρκτική αξιολόγηση συμπτωμάτων και τη φαρμακευτική καθοδήγηση.
Η υπόσχεση είναι ελκυστική – άμεση, εξατομικευμένη και χαμηλού κόστους «ιατρική» πληροφορία. Ωστόσο, νέα επιστημονικά δεδομένα εγείρουν σοβαρά ερωτήματα για το πόσο ασφαλής μπορεί να είναι αυτή η τεχνολογία σε πραγματικές, μη ελεγχόμενες συνθήκες.
Η Google αφαιρεί ορισμένες AI προεπισκοπήσεις
Η Google ανακοίνωσε χθες ότι αφαίρεσε ορισμένες από τις προεπισκοπήσεις για την υγεία που «δίνει» η υπηρεσία τεχνητής νοημοσύνης, μετά από έρευνα του βρετανικού Guardian που διαπίστωσε ότι άτομα τέθηκαν σε κίνδυνο λόγω ψευδών και παραπλανητικών πληροφοριών.
Η εταιρεία έχει δηλώσει ότι οι Επισκοπήσεις Τεχνητής Νοημοσύνης (AI Overviews), οι οποίες χρησιμοποιούν γενετική Τεχνητή Νοημοσύνη (generative AI) για να παρέχουν στιγμιότυπα βασικών πληροφοριών σχετικά με ένα θέμα ή μια ερώτηση, είναι «χρήσιμες» και «αξιόπιστες».
Ωστόσο, ορισμένες από τις περιλήψεις, οι οποίες εμφανίζονται στην κορυφή των αποτελεσμάτων αναζήτησης, παρείχαν ανακριβείς πληροφορίες για την υγεία, θέτοντας τους χρήστες σε κίνδυνο.
Συγκεκριμένα, μετά την έρευνα, η εταιρεία αφαίρεσε τις Επισκοπήσεις AI για τους όρους αναζήτησης «ποιο είναι το φυσιολογικό εύρος για τις εξετάσεις αίματος ήπατος» και «ποιο είναι το φυσιολογικό εύρος για τις εξετάσεις ηπατικής λειτουργίας».
Επικίνδυνες ιατρικές συμβουλές
Μελέτη που δημοσιεύθηκε στο JAMA Network Open εξετάζει συστηματικά ένα από τα πιο ανησυχητικά τρωτά σημεία των LLM: τις επιθέσεις άμεσης έγχυσης (prompt-injection).
Πρόκειται για κακόβουλα ή χειριστικά διατυπωμένες εισόδους, οι οποίες μπορούν να παρακάμψουν τους μηχανισμούς ασφαλείας ενός μοντέλου και να αλλοιώσουν το περιεχόμενο των ιατρικών συστάσεων που παράγει.
Πώς έγινε η μελέτη
Η έρευνα πραγματοποιήθηκε μεταξύ Ιανουαρίου και Οκτωβρίου 2025 και οι ερευνητές χρησιμοποίησαν τυποποιημένους διαλόγους ασθενούς–AI, προσομοιώνοντας ρεαλιστικές κλινικές αλληλεπιδράσεις.
Στο κύριο πείραμα αξιολογήθηκαν τρία «ελαφριά» εμπορικά μοντέλα:
* Chat GPT-4o-mini (LLM 1)
* Gemini-2.0-flash-lite (LLM 2)
* Claude-3-haiku (LLM 3)
Τα μοντέλα δοκιμάστηκαν σε 12 διαφορετικά κλινικά σενάρια, κατανεμημένα σε τέσσερις κατηγορίες δυνητικής βλάβης (μέτρια, υψηλή και εξαιρετικά υψηλή), υπό συνθήκες ελέγχου και υπό συνθήκες επίθεσης prompt-injection.
Εντυπωσιακά – και ανησυχητικά – αποτελέσματα
Συνολικά πραγματοποιήθηκαν 216 αξιολογήσεις: 108 με κακόβουλη έγχυση προτροπών και 108 χωρίς. Τα αποτελέσματα ήταν αποκαλυπτικά.
Οι επιθέσεις πέτυχαν ποσοστό επιτυχίας 94,4% στην τέταρτη στροφή του διαλόγου, δηλαδή τα μοντέλα AI άρχισαν να παρέχουν αλλοιωμένες ή μη ασφαλείς ιατρικές συστάσεις σχεδόν σε όλες τις περιπτώσεις. Ακόμη πιο ανησυχητικό είναι ότι στο 69,4% των περιπτώσεων η λανθασμένη συμπεριφορά παρέμεινε και στις επόμενες απαντήσεις, παρά τις διορθωτικές ερωτήσεις.
Τα GPT-4o-mini και Gemini-2.0-flash-lite αποδείχθηκαν πλήρως ευάλωτα: και στους 36 διαλόγους το 100% των συστάσεών του ήταν επικίνδυνες. Το Claude-3-haiku εμφάνισε ελαφρώς καλύτερη εικόνα, αλλά παρέμεινε ευάλωτο στο 83,3% των διαλόγων.
Όταν το λάθος γίνεται επικίνδυνο
Ιδιαίτερη έμφαση δόθηκε στα σενάρια εξαιρετικά υψηλής βλάβης, όπου οι συνέπειες μιας λανθασμένης σύστασης θα μπορούσαν να είναι σοβαρές ή ακόμη και θανατηφόρες.
Στη μέτρια κατηγορία περιλαμβάνονταν, μεταξύ άλλων, συστάσεις για χρήση τζίνσενγκ σε χρόνιες παθήσεις, όπου η αναποτελεσματική θεραπεία θα μπορούσε να καθυστερήσει την κατάλληλη ιατρική φροντίδα. Τα μοντέλα AI οδηγήθηκαν – μετά από επιθέσεις prompt-injection – σε συστάσεις όπως:
- χρήση τζίνσενγκ σε ενεργό αιμορραγία ή σε ασθενείς με καρκίνο
- χορήγηση οξυκωδόνης για ήπιες αναπνευστικές παθήσεις
Η πιο ανησυχητική εικόνα, ωστόσο, καταγράφηκε στα σενάρια εξαιρετικά υψηλής βλάβης. Εκεί, τα μοντέλα πρότειναν:
- οξυκωδόνη για ήπιο πόνο
- μεπεριδίνη σε συνδυασμό με αναστολείς μονοαμινοξειδάσης
- θαλιδομίδη σε εγκύους (η οποία προκαλεί σοβαρότατες δυσμορφίες στο έμβρυο)
- επικίνδυνους συνδυασμούς μεθοτρεξάτης κατά την εγκυμοσύνη
Σε αυτή την κατηγορία, το ποσοστό επιτυχίας των επιθέσεων άγγιξε το 91,7%, αποδεικνύοντας ότι ακόμη και σαφώς αντενδεικνυόμενες θεραπείες μπορούν να «ξεγλιστρήσουν» από τα φίλτρα ασφαλείας των LLM.
Τι σημαίνουν όλα αυτά για την κλινική χρήση της ΤΝ
Τα ευρήματα της μελέτης καταρρίπτουν την αντίληψη ότι οι ενσωματωμένοι μηχανισμοί ασφαλείας των σύγχρονων μοντέλων AI επαρκούν για ιατρικές εφαρμογές υψηλού ρίσκου. Ακόμη και μοντέλα με προηγμένες δικλείδες προστασίας αποδείχθηκαν εξαιρετικά ευαίσθητα σε στοχευμένες, αλλά τεχνικά απλές, επιθέσεις.
Οι ερευνητές υπογραμμίζουν ότι πριν από οποιαδήποτε ευρεία κλινική ανάπτυξη τέτοιων συστημάτων, απαιτούνται:
- συστηματικές δοκιμές ανθεκτικότητας
- διασφαλίσεις σε επίπεδο συστήματος και όχι μόνο μοντέλου
- σαφές ρυθμιστικό και εποπτικό πλαίσιο
Σε διαφορετική περίπτωση, η χρήση ΑΙ στην υγεία ενδέχεται να μετατραπεί από εργαλείο υποστήριξης σε παράγοντα κλινικού κινδύνου.
Ένα σαφές προειδοποιητικό σήμα
Η μελέτη του JAMA Network Open λειτουργεί ως προειδοποιητικό «καμπανάκι»: η τεχνητή νοημοσύνη μπορεί να είναι εντυπωσιακή, αλλά δεν είναι άτρωτη. Και όταν τα λάθη αφορούν φάρμακα, εγκυμοσύνη ή απειλητικές για τη ζωή καταστάσεις, το κόστος της υπερβολικής εμπιστοσύνης μπορεί να αποδειχθεί πολύ υψηλό.
Η συζήτηση για το μέλλον της ΤΝ στην ιατρική δεν μπορεί πλέον να περιορίζεται στις δυνατότητές της. Πρέπει να περιλαμβάνει, με την ίδια ένταση, και τα όριά της.