Η OpenAI θα προβλέπει την ηλικία των χρηστών για ενισχυμένη ασφάλεια

Η OpenAI θα προβλέπει την ηλικία των χρηστών για ενισχυμένη ασφάλεια

SHARE IT

21 Ιανουαρίου 2026

Σε μια εποχή όπου η ψηφιακή ασφάλεια των ανηλίκων βρίσκεται υπό έντονο έλεγχο, η OpenAI μεταβαίνει από τα απλά κουτάκια επιλογής σε μια εξελιγμένη αλγοριθμική ανίχνευση. Η εταιρεία πίσω από το ChatGPT ανακοίνωσε μια σημαντική ενημέρωση στα καταναλωτικά της προγράμματα: ένα νέο μοντέλο πρόβλεψης ηλικίας που έχει σχεδιαστεί για να αναγνωρίζει χρήστες κάτω των 18 ετών και να εφαρμόζει αυτόματα αυστηρότερα πρωτόκολλα ασφαλείας. Αυτή η κίνηση σηματοδοτεί την απομάκρυνση από την παραδοσιακή επαλήθευση ηλικίας που βασίζεται στην «ειλικρίνεια» του χρήστη, καθώς η OpenAI επιχειρεί να προστατεύσει προληπτικά το νεανικό κοινό από δυνητικά ευαίσθητο ή επιβλαβές περιεχόμενο, χωρίς να περιμένει από τους ίδιους να δηλώσουν την ηλικία τους.

Η τεχνική βάση αυτής της πρωτοβουλίας στηρίζεται σε μια σύνθετη σειρά σημάτων συμπεριφοράς και δεδομένων λογαριασμού. Αντί να εξετάζει μόνο την ημερομηνία γέννησης που δόθηκε κατά την εγγραφή, το σύστημα αναλύει μοτίβα όπως η διάρκεια δραστηριότητας του λογαριασμού, οι συγκεκριμένες ώρες της ημέρας που ένας χρήστης αλληλεπιδρά με την AI, καθώς και τις γενικές τάσεις χρήσης με την πάροδο του χρόνου. Συνθέτοντας αυτά τα σημεία δεδομένων, το μοντέλο εκτιμά εάν ένα προφίλ ανήκει πιθανώς σε έφηβο. Εάν το σύστημα επισημάνει έναν λογαριασμό ως ανήλικο, το ChatGPT μεταβαίνει αμέσως σε μια περιορισμένη εμπειρία, περιορίζοντας την έκθεση σε θέματα που αφορούν γραφική βία, σεξουαλικό περιεχόμενο και άλλο ακατάλληλο για την ηλικία υλικό.

Αυτή η στρατηγική στροφή έρχεται σε μια στιγμή που η OpenAI δέχεται αυξανόμενες πιέσεις τόσο από τις ρυθμιστικές αρχές όσο και από το κοινό. Πρόσφατες νομικές προκλήσεις, συμπεριλαμβανομένων αγωγών από γονείς που ισχυρίζονται ότι το chatbot παρείχε ανεπαρκή υποστήριξη ή ακόμα και επιβλαβείς συμβουλές κατά τη διάρκεια κρίσεων ψυχικής υγείας, ώθησαν την εταιρεία να δώσει προτεραιότητα στην ασφάλεια έναντι της πλήρους αυτονομίας του χρήστη. Ο διευθύνων σύμβουλος Sam Altman τόνισε ότι η εταιρεία είναι διατεθειμένη να θυσιάσει ένα βαθμό ιδιωτικότητας των ενηλίκων προκειμένου να διασφαλίσει ότι οι ανήλικοι προστατεύονται καλύτερα. Αυτή η φιλοσοφία «πρώτα η ασφάλεια» αποτελεί άμεση απάντηση στην αυξανόμενη επιρροή της παραγωγικής τεχνητής νοημοσύνης στα σχολεία και στα σπίτια, όπου το όριο μεταξύ εκπαιδευτικού εργαλείου και μη ελεγχόμενου ψηφιακού χώρου συχνά θολώνει.

Ωστόσο, κανένα αλγοριθμικό σύστημα δεν είναι αλάνθαστο και η OpenAI αναγνωρίζει την πιθανότητα εσφαλμένης ταξινόμησης. Για να μετριάσει την απογοήτευση των ενήλικων χρηστών που μπορεί να αναγνωριστούν λανθασμένα ως ανήλικοι, η πλατφόρμα έχει ενσωματώσει μια διαδικασία επαλήθευσης μέσω της υπηρεσίας τρίτων Persona. Εάν ένας ενήλικας βρεθεί «παγιδευμένος» στην εμπειρία που προορίζεται για εφήβους, μπορεί να αποκαταστήσει την πλήρη πρόσβαση ολοκληρώνοντας έναν έλεγχο ταυτότητας μέσω selfie. Αυτή η βιομετρική επαλήθευση προορίζεται να είναι μια γρήγορη λύση, αν και εγείρει δευτερεύοντα ερωτήματα σχετικά με τη διατήρηση των δεδομένων και την αυξανόμενη αναγκαιότητα παροχής κρατικών εγγράφων ταυτοποίησης για την πλοήγηση στον σύγχρονο ιστό.

Καθώς η OpenAI ετοιμάζεται να κυκλοφορήσει μια επίσημη «λειτουργία για ενήλικες» αργότερα μέσα στο 2026, το σύστημα πρόβλεψης ηλικίας χρησιμεύει ως θεμέλιο για μια πιο διαβαθμισμένη εμπειρία χρήστη. Η παγκόσμια διάθεση έχει ήδη ξεκινήσει, με τις ευρωπαϊκές αγορές να αναμένεται να ακολουθήσουν σύντομα, καθώς η εταιρεία συμμορφώνεται με τους αυστηρούς νόμους προστασίας δεδομένων της περιοχής. Αυτοματοποιώντας τον εντοπισμό των νεαρών χρηστών, η OpenAI δεν προσπαθεί μόνο να προλάβει τους παγκόσμιους κανονισμούς ασφαλείας, αλλά θέτει και ένα νέο βιομηχανικό πρότυπο για το πώς οι πλατφόρμες AI διαχειρίζονται τη λεπτή ισορροπία μεταξύ της ανοιχτής πρόσβασης και της προστασίας των ευάλωτων πληθυσμιακών ομάδων.

Δες τα όλα