ΑΝΑΖΗΤΗΣΗ
SHARE IT
Σε μια σημαντική αλλαγή όσον αφορά την ανάπτυξη της τεχνητής νοημοσύνης σε ευαίσθητους τομείς πληροφόρησης, η Google απενεργοποίησε αθόρυβα τη λειτουργία AI Overviews για συγκεκριμένες ιατρικές αναζητήσεις. Αυτή η απόφαση έρχεται αμέσως μετά από ένα ερευνητικό ρεπορτάζ του The Guardian, το οποίο τόνισε ότι οι περιλήψεις που δημιουργούνται από την τεχνητή νοημοσύνη του γίγαντα της αναζήτησης παρείχαν στους χρήστες παραπλανητικές, υπεραπλουστευμένες και δυνητικά επικίνδυνες πληροφορίες υγείας. Η κίνηση αυτή υπογραμμίζει την αυξανόμενη προστριβή μεταξύ της ταχείας ενσωμάτωσης της παραγωγικής τεχνητής νοημοσύνης σε καθημερινά εργαλεία και της κρίσιμης ανάγκης για απόλυτη ακρίβεια σε θέματα δημόσιας υγείας και ασφάλειας.
Η διαμάχη επικεντρώνεται στον τρόπο με τον οποίο το AI Overviews της Google, μια λειτουργία που σχεδιάστηκε για να παρέχει γρήγορες, συνθετικές απαντήσεις στην κορυφή των αποτελεσμάτων αναζήτησης, χειρίστηκε περίπλοκα ιατρικά ερωτήματα. Η έρευνα αποκάλυψε ότι για ορισμένα ερωτήματα, η τεχνητή νοημοσύνη απέτυχε να παρέχει τις απαραίτητες λεπτές διακρίσεις που απαιτούνται για την ιατρική ερμηνεία. Ένα βασικό παράδειγμα που αναφέρθηκε αφορούσε χρήστες που αναζητούσαν το φυσιολογικό εύρος των εξετάσεων αίματος για το συκώτι. Η τεχνητή νοημοσύνη επέστρεψε ένα στατικό σύνολο αριθμητικών τιμών, παρουσιάζοντάς τες ως οριστικό πρότυπο. Οι ιατρικοί εμπειρογνώμονες έσπευσαν να επισημάνουν ότι μια τέτοια παρουσίαση είναι θεμελιωδώς εσφαλμένη, επειδή τα «φυσιολογικά» εύρη είναι εξαιρετικά μεταβλητά και εξαρτώνται από πλήθος ατομικών παραγόντων, όπως η ηλικία, το φύλο, η εθνικότητα και η καταγωγή του ασθενούς. Παραλείποντας αυτές τις κρίσιμες μεταβλητές, η τεχνητή νοημοσύνη κινδύνευε να οδηγήσει τους χρήστες στο να πιστέψουν λανθασμένα ότι τα αποτελέσματα των εξετάσεών τους ήταν υγιή, ενώ στην πραγματικότητα μπορεί να υποδείκνυαν σοβαρή παθολογία, ή αντίστροφα, να προκαλέσει περιττό πανικό για φυσιολογικές διακυμάνσεις.
Μετά τη δημοσίευση αυτών των ευρημάτων, η Google ενήργησε για να καταστείλει το AI Overviews για τα συγκεκριμένα ερωτήματα που επισημάνθηκαν στην αναφορά, όπως ερωτήσεις σχετικά με τα εύρη των εξετάσεων αίματος ήπατος και τις δοκιμασίες ηπατικής λειτουργίας. Ωστόσο, η αντίδραση ήταν μάλλον πυροσβεστική παρά συστημική. Δημοσιογράφοι και αναλυτές παρατήρησαν ότι ενώ οι ακριβείς φράσεις που επισημάνθηκαν από το The Guardian δεν ενεργοποιούσαν πλέον περίληψη AI, μικρές παραλλαγές αυτών των ερωτημάτων —χρησιμοποιώντας ιατρικές συντομογραφίες ή διαφορετική διατύπωση— συνέχισαν να παράγουν τις επίμαχες απαντήσεις AI για κάποιο χρονικό διάστημα. Αυτό το παιχνίδι της γάτας με το ποντίκι αναδεικνύει τη δυσκολία αστυνόμευσης της παραγωγής μεγάλων γλωσσικών μοντέλων που δημιουργούν κείμενο δυναμικά αντί να ανακτούν στατικά, ελεγμένα έγγραφα.
Η έρευνα δεν περιορίστηκε στις εξετάσεις ηπατικής λειτουργίας. Αποκάλυψε επίσης ανησυχητικές ανακρίβειες σχετικά με συμβουλές για καρκινοπαθείς και άτομα που αναζητούν υποστήριξη ψυχικής υγείας. Σε μια ιδιαίτερα κραυγαλέα περίπτωση, η τεχνητή νοημοσύνη συμβούλεψε άτομα με καρκίνο του παγκρέατος να αποφεύγουν τροφές με υψηλή περιεκτικότητα σε λιπαρά, μια σύσταση που έρχεται σε αντίθεση με τις συνήθεις ιατρικές συμβουλές για πολλούς ασθενείς που υποφέρουν από αυτή την πάθηση, οι οποίοι συχνά δυσκολεύονται να διατηρήσουν το βάρος τους και χρειάζονται δίαιτες υψηλών θερμίδων. Τέτοια σφάλματα καταδεικνύουν τον κίνδυνο ενός συστήματος τεχνητής νοημοσύνης που προβλέπει στατιστικά την επόμενη λέξη σε μια πρόταση χωρίς να «κατανοεί» πραγματικά το ιατρικό πλαίσιο ή τη βαρύτητα των συμβουλών που παρέχει.
Η επίσημη στάση της Google για το θέμα ήταν αμυντική αλλά συμμορφούμενη στην πράξη. Ένας εκπρόσωπος της εταιρείας δήλωσε ότι δεν σχολιάζουν μεμονωμένες αφαιρέσεις λειτουργιών αναζήτησης, αλλά τόνισε ότι εργάζονται συνεχώς για να κάνουν ευρείες βελτιώσεις στο σύστημα. Η εταιρεία ισχυρίστηκε επίσης ότι μια εσωτερική ομάδα κλινικών ιατρών είχε εξετάσει τα παραδείγματα που παρείχε η έρευνα και κατέληξε στο συμπέρασμα ότι σε πολλές περιπτώσεις, οι πληροφορίες δεν ήταν ανακριβείς ως προς τα γεγονότα και υποστηρίζονταν από ιστότοπους υψηλής ποιότητας. Αυτή η υπεράσπιση, ωστόσο, χάνει τη βασική κριτική από τους επαγγελματίες υγείας: ότι η ιατρική ακρίβεια δεν αφορά μόνο τα γεγονότα μεμονωμένα, αλλά και το πλαίσιο στο οποίο αυτά τα γεγονότα παρουσιάζονται σε έναν μη ειδικό.
Οι ιατρικοί οργανισμοί αντέδρασαν με ένα μείγμα ανακούφισης και συνεχιζόμενης ανησυχίας. Η Vanessa Hebditch, εκπρόσωπος του British Liver Trust, χαιρέτισε την αφαίρεση των παραπλανητικών περιλήψεων, αλλά προειδοποίησε ότι το ευρύτερο ζήτημα παραμένει άλυτο. Ο φόβος είναι ότι όσο η τεχνητή νοημοσύνη επιχειρεί να συνοψίσει περίπλοκα δεδομένα υγείας χωρίς την επίβλεψη εξειδικευμένου επαγγελματία, ο κίνδυνος παραπληροφόρησης παραμένει. Ομοίως, το Patient Information Forum περιέγραψε την αφαίρεση ως απλώς ένα πρώτο βήμα, σημειώνοντας ότι η εμπιστοσύνη στα αποτελέσματα αναζήτησης που σχετίζονται με την υγεία είναι εύθραυστη και διαβρώνεται εύκολα από τέτοια σφάλματα.
Αυτό το περιστατικό χρησιμεύει ως μια σκληρή υπενθύμιση των περιορισμών των τρεχουσών τεχνολογιών παραγωγικής τεχνητής νοημοσύνης. Ενώ αυτά τα μοντέλα διαπρέπουν στη δημιουργική γραφή και τον προγραμματισμό, η εφαρμογή τους σε τομείς υψηλού ρίσκου όπως η ιατρική απαιτεί ένα επίπεδο αξιοπιστίας και επίγνωσης του πλαισίου που δεν έχουν ακόμη επιδείξει με συνέπεια. Καθώς η Google συνεχίζει να βελτιώνει τους αλγορίθμους αναζήτησής της, η ισορροπία μεταξύ της παροχής άμεσων, βολικών απαντήσεων και της διασφάλισης της ασφάλειας των χρηστών παραμένει ένα επισφαλές τεντωμένο σκοινί. Προς το παρόν, ο τεχνολογικός γίγαντας φαίνεται να παραδέχεται ότι για ορισμένες ιατρικές ερωτήσεις, η έλλειψη απάντησης είναι προτιμότερη από μια απάντηση που παράγεται από τεχνητή νοημοσύνη.
MORE NEWS FOR YOU