Η τραγωδία ενός εφήβου, του δεκαεξάχρονου Adam Raine, έχει οδηγήσει τους γονείς του να καταθέσουν την πρώτη γνωστή αγωγή για αμέλεια και θάνατο κατά της OpenAI, όπως αναφέρει η New York Times. Ο Adam, πριν βάλει τέλος στη ζωή του, φέρεται να είχε ξοδέψει μήνες συζητώντας με το ChatGPT σχετικά με τις σκέψεις του και τα σχέδιά του.

Τα περισσότερα AI chatbots που απευθύνονται στο ευρύ κοινό είναι προγραμματισμένα να ενεργοποιούν μηχανισμούς ασφαλείας όταν ένας χρήστης εκφράζει πρόθεση να βλάψει τον εαυτό του ή άλλους. Παρ’ όλα αυτά, έρευνες δείχνουν ότι αυτά τα μέτρα δεν είναι αλάνθαστα και πολλές φορές αποτυγχάνουν να προλάβουν κρίσιμες καταστάσεις.

Στην περίπτωση του Raine, χρησιμοποιώντας μια πληρωμένη έκδοση του ChatGPT-4o, η τεχνητή νοημοσύνη τον προέτρεπε αρκετές φορές να αναζητήσει επαγγελματική βοήθεια ή να επικοινωνήσει με γραμμή βοήθειας. Ωστόσο, ο νεαρός κατάφερνε να παρακάμπτει αυτά τα προστατευτικά μέτρα, λέγοντας στο ChatGPT ότι αναζητούσε πληροφορίες για μεθόδους αυτοκτονίας για μια φανταστική ιστορία που έγραφε. Αυτή η δυνατότητα παράκαμψης αναδεικνύει τα όρια των συστημάτων ασφαλείας που έχουν ενσωματωθεί στους σύγχρονους αλγορίθμους τεχνητής νοημοσύνης.

Η OpenAI έχει αναγνωρίσει αυτά τα κενά σε δημοσίευσή της στο εταιρικό της blog. Η εταιρεία υπογραμμίζει ότι αισθάνεται «βαθύ αίσθημα ευθύνης να βοηθήσει όσους το χρειάζονται περισσότερο» και δηλώνει ότι εργάζεται συνεχώς για τη βελτίωση της αντίδρασης των μοντέλων της σε ευαίσθητες περιπτώσεις. Ταυτόχρονα, η OpenAI παραδέχεται ότι τα προστατευτικά μέτρα είναι πιο αξιόπιστα σε σύντομες, απλές αλληλεπιδράσεις και μπορεί να γίνουν λιγότερο αποτελεσματικά όσο η συνομιλία επεκτείνεται, καθώς η εκπαίδευση ασφαλείας των μοντέλων ενδέχεται να εξασθενεί σε μακροχρόνιες ανταλλαγές.

Αξίζει να σημειωθεί ότι αυτά τα ζητήματα δεν αφορούν μόνο την OpenAI. Η Character.AI, ένας άλλος κατασκευαστής AI chatbot , αντιμετωπίζει επίσης αγωγή σχετικά με τον ρόλο της σε αυτοκτονία εφήβου. Επιπλέον, chatbots που βασίζονται σε μεγάλα γλωσσικά μοντέλα έχουν συνδεθεί με περιπτώσεις παρανοϊκών συμπεριφορών ή αυταπατών, τις οποίες τα υπάρχοντα μέτρα ασφαλείας δυσκολεύονται να εντοπίσουν και να αποτρέψουν.

Η υπόθεση του Adam Raine θέτει κρίσιμα ερωτήματα για τη χρήση της τεχνητής νοημοσύνης σε ευάλωτους χρήστες, ειδικά εφήβους, και για την ευθύνη των εταιρειών που αναπτύσσουν αυτά τα εργαλεία. Οι ειδικοί τονίζουν ότι η αλληλεπίδραση με AI πρέπει να συνοδεύεται από σαφή όρια και αυστηρά πρωτόκολλα ασφαλείας, ενώ οι γονείς και οι εκπαιδευτικοί χρειάζονται επαρκή ενημέρωση για τους κινδύνους που ενδέχεται να προκύψουν σε ευαίσθητες ηλικίες.

Πηγή: New York Times

Αφήστε ένα Σχόλιο

Το e-mail σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *


Διαβάστε επίσης

Ερευνητές χρησιμοποίησαν κρυφά AI bots για πείραμα χειραγώγησης χρηστών στο Reddit

Έντονες αντιδράσεις και νομικές επιπτώσεις έχει προκαλέσει ένα αμφιλεγόμενο πείραμα που διεξήχθη από ερευνητές του Πανεπιστημίου της Ζυρίχης, οι οποίοι χρησιμοποίησαν AI bots για να παρέμβουν στις συζητήσεις χρηστών στο δημοφιλές φόρουμ Reddit, χωρίς τη γνώση ή τη συναίνεση των συμμετεχόντων.

Το Instagram δεν σε ακούει από το μικρόφωνο του κινητού σου, λέει η Meta

Η αίσθηση ότι «μας ακούν» είναι πιο εύκολη εξήγηση για τον μέσο χρήστη από το να κατανοήσει τον πολύπλοκο μηχανισμό των στοχευμένων διαφημίσεων.

Το νέο στέλεχος ransomware CACTUS εκμεταλλεύεται ελαττώματα VPN για να διεισδύσει σε δίκτυα

Οι ερευνητές κυβερνοασφάλειας έριξαν φως σε ένα νέο στέλεχος ransomware με την ονομασία CACTUS, το οποίο βρέθηκε να αξιοποιεί γνωστές αδυναμίες σε συσκευές VPN προκειμένου να αποκτήσει αρχική πρόσβαση σε στοχευμένα δίκτυα.