Ο βιολόγος με εξειδίκευση στη Μοριακή Ιατρική, Γεώργιος Καργιολάκης, σχολιάζει τη μελέτη και αποτυπώνει μια εικόνα που είναι ταυτόχρονα εντυπωσιακή,αλλά και ανησυχητική. Κι αυτό, καθώς η τεχνητή νοσημοσύνη εμφανίζει πλέον δυνατότητες που της επιτρέπουν να μετατραπεί από από «εργαλείο» στα χέρια των επιστημόνων, σε αυτόνομο «επιστήμονα«.
Φυσικά, η νέα αυτή δυνατότητα παρουσιάζει σημαντικές ατέλειες και «κενά. Ας δούμε ποια είναι αυτά – μέσα από τη μελέτη του Nature– και τα «μάτια» του ίδιου του ειδικού.
Σύμφωνα με τη μελέτη, λοιπόν, το σύστημα που αναπτύχθηκε από τη Sakana AI μπορεί:
- να παράγει ερευνητικές ιδέες
- να σχεδιάζει πειράματα
- να εκτελεί αναλύσεις
- να συγγράφει επιστημονικά άρθρα
Όπως επισημαίνει ο Καργιολάκης: «Πρόκειται ουσιαστικά για μια προσπάθεια αυτοματοποίησης του πλήρους κύκλου της επιστήμης, όχι απλώς για ένα εργαλείο επιτάχυνσης της εργασίας των ερευνητών».
Τεχνητή νοημοσύνη στη θέση «επιστήμονα»: Η αξιολόγηση του πειράματος
Η πρώτη δοκιμή του συστήματος έγινε μέσω peer review, δηλαδή, της κλασικής διαδικασίας αξιολόγησης από επιστήμονες. Τα αποτελέσματα, αν και εντυπωσιακά, έχουν διπλή ανάγνωση.
Τα θετικά
Τα θετικά συγκαταλέγονται ταχύτητα και όγκος επεξεργασίας δεδομένων χωρίς προηγούμενο. Το AI φαίνεται να ξεπερνά τον άνθρωπο σε έναν κρίσιμο τομέα: την ταχύτητα παραγωγής.
«Το σύστημα μπορεί να παράγει μεγάλο αριθμό ιδεών με ταχύτητα που ξεπερνά κατά πολύ τον άνθρωπο, να οργανώνει υπολογιστικά πειράματα και να συνθέτει πλήρη επιστημονικά κείμενα», σχολιάζει ο επιστήμονας με ανάρτησή του στα social media.
Αυτό ανοίγει τον δρόμο για εκρηκτική αύξηση της επιστημονικής γνώσης και την επιτάχυνση των μελετών, σε ειδικά σε πεδία όπως:
- το drug design (σχεδιασμός φαρμάκων και θεραπειών)
- τη βιοπληροφορική
- τους σπάνιους καρκίνους
Ο ίδιος σημειώνει: «Υπάρχουν πεδία, όπως το drug design, η αναζήτηση θεραπειών για σπάνιους τύπους καρκίνου… όπου έχω την αίσθηση… πως όση περισσότερη πληροφορία φορτώσεις τα LLMs / AI μπορεί να «βρουν» τη λύση».
Τα αρνητικά
Στα αρνητικά της αποτελεσματικότητας του ΑΙ συγκαταλέγονται τα λάθη, η επιφανειακή σκέψη, δηλαδή η αδυναμία διείσδυσης και… έλλειψη κρίσης. Κι εδώ αρχίζουν τα δύσκολα.
«Κάνει μεθοδολογικά λάθη, συχνά προτείνει ερωτήματα χωρίς πραγματική πρωτοτυπία ή σημασία, και το πιο σημαντικό, δεν διαθέτει την ικανότητα να διακρίνει τι αξίζει να ερευνηθεί σε βάθος».
Με απλά λόγια: μπορεί να παράγει, αλλά δεν ξέρει τι έχει αξία. Και αυτό είναι ίσως το πιο επικίνδυνο σημείο.
Η μεγάλη μετατόπιση της συμβολής των επιστημόνων: από δημιουργοί… επιμελητές
Η μελέτη δεν δείχνει ότι οι επιστήμονες εξαφανίζονται. Δείχνει ότι αλλάζουν ρόλο. Με δεδομένο ότι η τεχνολογία της τεχνητής νοημοσύνης διαρκώς εξελίσσεται, υπάρχει ο κίνδυνος με την αυτοδιόρθωση των μοντέλων, ο επιστήμονας να μετατραπεί σε κάτι άλλο.
«Η επιστημονική εργασία φαίνεται να μεταβαίνει από μια δραστηριότητα παραγωγής γνώσης σε μια δραστηριότητα επίβλεψης, επιλογής και αξιολόγησης», λέει ο Καθηγητής Γ. Καργιολάκης.
Ο ερευνητής, δηλαδή, ενδέχεται να μετατραπεί κάτι σαν «editor» της γνώσης. Στην περίπτωση αυτή η αξία του ερευνητή δεν θα αφορά πλέον το να παράγει ιδέες, αλλά να ξεχωρίζει ποιες αξίζουν.
Ο κίνδυνος της «επιστημονικής υπερπαραγωγής»
Η δυνατότητα παραγωγής χιλιάδων μελετών δημιουργεί, μάλιστα, κι ένα νέο επιπρόσθετο πρόβλημα:
«Ο όγκος της παραγόμενης γνώσης μπορεί να ξεπεράσει την ικανότητα της κοινότητας να την αξιολογήσει».
Και αυτό σημαίνει:
- περισσότερα χαμηλής ποιότητας αποτελέσματα
- αυξημένο ρίσκο λαθών
- πιθανή διάχυση λανθασμένων συμπερασμάτων
Ο Καργιολάκης μιλά ξεκάθαρα για έναν νέο τύπο κινδύνου: «Όχι το μεμονωμένο λάθος, αλλά το συστημικό λάθος σε μεγάλη κλίμακα».
Παράλληλα, προειδοποιεί για τη δημιουργία «επιστημονικών φουσκών», δηλαδή παραγωγή ολόκληρων επιστημονικών πεδίων που μπορεί να βασίζονται σε αδύναμες παραδοχές.
Στην περίπτωση αυτή, το σημερινό σύστημα αξιολόγησης ίσως δεν αντέξει, όπως λέει:
«Αν η παραγωγή αυξηθεί εκθετικά, είτε θα πρέπει να αυτοματοποιηθεί και αυτό, είτε θα καταρρεύσει ως μηχανισμός ποιοτικού ελέγχου».
Και εδώ εμφανίζεται ένα σχεδόν ειρωνικό σενάριο: «Θα χρειαστούμε AI για να ελέγχει την επιστήμη που παράγει άλλο AI».
Το βαθύτερο ζήτημα: γνώση χωρίς κατανόηση
Η πιο ουσιαστική ανησυχία δεν είναι τεχνική, αλλά είναι φιλοσοφική. «Το AI μπορεί να παράγει υποθέσεις και να εκτελεί αναλύσεις χωρίς να «κατανοεί» το νόημά τους με τον ανθρώπινο τρόπο.»
Αυτό ενδέχεται να οδηγήσει σε μια νέα μορφή γνώσης, λειτουργικά χρήσιμη μεν, αλλά εννοιολογικά «ρηχή»
Και τελικά:
«Η επιστήμη, όπως τη γνωρίζουμε, ήταν μέχρι σήμερα άρρηκτα συνδεδεμένη με την ανθρώπινη περιέργεια και κατανόηση. Αν αρχίσουμε να παράγουμε αξιόπιστα αποτελέσματα χωρίς πλήρη κατανόηση του πώς προκύπτουν, τότε η ίδια η έννοια της γνώσης αλλάζει. Μετακινούμαστε από την «κατανόηση του κόσμου» στη «λειτουργική πρόβλεψη και έλεγχο του κόσμου», επισημαίνει ο ερευντητής.
Και παραθέτει ένα παράδειγμα:
«Παρατηρώ με ενδιαφέρον, την έκρηξη σε ποσότητα «γνώσης» από την Κίνα (η οποία άρχισε να αχνοφαίνεται την αρχική περίοδο της πανδημίας), η οποία όμως δεν ακολουθείται από ποιότητα. Από την άλλη, δεν είμαι de facto αρνητικός σε αυτό. Υπάρχουν πεδία, όπως το drug design, η αναζήτηση θεραπειών για σπάνιους τύπους καρκίνου, όπως π.χ. το λειομυοσάρκωμα μήτρας που πήρε μακριά μου τη Στέλλα, όπου έχω την αίσθηση, την ελπίδα, δεν ξέρω ποια λέξη αρμόζει, πώς όση περισσότερη πληροφορία φορτώσεις τα LLMs / AI μπορεί να «βρουν» τη λύση»
Παρά την τεχνολογική έκρηξη, ο Γιώργος Καργιολάκης κρατά μια ισορροπημένη στάση και μέσα από το προσωπικό του παράδειγμα με την καθημερινή χρήση της τεχνητής νοημοσύνης, καταλήγει:
«Σε όλη αυτή τη χρήση παρατηρώ τον εαυτό μου, ότι προσπαθεί να έχει καλύτερο έλεγχο της καθημερινότητας και να προβλέψει τις επόμενες ενέργειές μου, δηλαδή από reactive έχω πάει στο proactive. Νιώθω όμως, ότι ο ανθρώπινος παράγοντας θα δίνει πάντοτε το τελικό touch, δυστυχώς όμως σε πολλές υπηρεσίες και προϊόντα, πλέον το παραγόμενο αποκλειστικά από άνθρωπο (ή ακόμη και εν μέρει) θα είναι για premium χρήστες/πολίτες».
Φωτογραφία: iStock