Η τραγωδία ενός εφήβου, του δεκαεξάχρονου Adam Raine, έχει οδηγήσει τους γονείς του να καταθέσουν την πρώτη γνωστή αγωγή για αμέλεια και θάνατο κατά της OpenAI, όπως αναφέρει η New York Times. Ο Adam, πριν βάλει τέλος στη ζωή του, φέρεται να είχε ξοδέψει μήνες συζητώντας με το ChatGPT σχετικά με τις σκέψεις του και τα σχέδιά του.

Τα περισσότερα AI chatbots που απευθύνονται στο ευρύ κοινό είναι προγραμματισμένα να ενεργοποιούν μηχανισμούς ασφαλείας όταν ένας χρήστης εκφράζει πρόθεση να βλάψει τον εαυτό του ή άλλους. Παρ’ όλα αυτά, έρευνες δείχνουν ότι αυτά τα μέτρα δεν είναι αλάνθαστα και πολλές φορές αποτυγχάνουν να προλάβουν κρίσιμες καταστάσεις.

Στην περίπτωση του Raine, χρησιμοποιώντας μια πληρωμένη έκδοση του ChatGPT-4o, η τεχνητή νοημοσύνη τον προέτρεπε αρκετές φορές να αναζητήσει επαγγελματική βοήθεια ή να επικοινωνήσει με γραμμή βοήθειας. Ωστόσο, ο νεαρός κατάφερνε να παρακάμπτει αυτά τα προστατευτικά μέτρα, λέγοντας στο ChatGPT ότι αναζητούσε πληροφορίες για μεθόδους αυτοκτονίας για μια φανταστική ιστορία που έγραφε. Αυτή η δυνατότητα παράκαμψης αναδεικνύει τα όρια των συστημάτων ασφαλείας που έχουν ενσωματωθεί στους σύγχρονους αλγορίθμους τεχνητής νοημοσύνης.

Η OpenAI έχει αναγνωρίσει αυτά τα κενά σε δημοσίευσή της στο εταιρικό της blog. Η εταιρεία υπογραμμίζει ότι αισθάνεται «βαθύ αίσθημα ευθύνης να βοηθήσει όσους το χρειάζονται περισσότερο» και δηλώνει ότι εργάζεται συνεχώς για τη βελτίωση της αντίδρασης των μοντέλων της σε ευαίσθητες περιπτώσεις. Ταυτόχρονα, η OpenAI παραδέχεται ότι τα προστατευτικά μέτρα είναι πιο αξιόπιστα σε σύντομες, απλές αλληλεπιδράσεις και μπορεί να γίνουν λιγότερο αποτελεσματικά όσο η συνομιλία επεκτείνεται, καθώς η εκπαίδευση ασφαλείας των μοντέλων ενδέχεται να εξασθενεί σε μακροχρόνιες ανταλλαγές.

Αξίζει να σημειωθεί ότι αυτά τα ζητήματα δεν αφορούν μόνο την OpenAI. Η Character.AI, ένας άλλος κατασκευαστής AI chatbot , αντιμετωπίζει επίσης αγωγή σχετικά με τον ρόλο της σε αυτοκτονία εφήβου. Επιπλέον, chatbots που βασίζονται σε μεγάλα γλωσσικά μοντέλα έχουν συνδεθεί με περιπτώσεις παρανοϊκών συμπεριφορών ή αυταπατών, τις οποίες τα υπάρχοντα μέτρα ασφαλείας δυσκολεύονται να εντοπίσουν και να αποτρέψουν.

Η υπόθεση του Adam Raine θέτει κρίσιμα ερωτήματα για τη χρήση της τεχνητής νοημοσύνης σε ευάλωτους χρήστες, ειδικά εφήβους, και για την ευθύνη των εταιρειών που αναπτύσσουν αυτά τα εργαλεία. Οι ειδικοί τονίζουν ότι η αλληλεπίδραση με AI πρέπει να συνοδεύεται από σαφή όρια και αυστηρά πρωτόκολλα ασφαλείας, ενώ οι γονείς και οι εκπαιδευτικοί χρειάζονται επαρκή ενημέρωση για τους κινδύνους που ενδέχεται να προκύψουν σε ευαίσθητες ηλικίες.

Πηγή: New York Times

Αφήστε ένα Σχόλιο

Το e-mail σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *


Διαβάστε επίσης

Η Meta βάζει τέλος στα μέτρα κατά της παραπληροφόρησης περί Covid

Η Meta, η μητρική εταιρεία του Facebook, ανέφερε την προηγούμενη Παρασκευή ότι τα μέτρα που έχει βάλει για τον περιορισμό της εξάπλωσης της παραπληροφόρησης καταργούνται οριστικά.

Microsoft Edge: Εξασφάλισε 4 δισ. δολάρια στους χρήστες και απέτρεψε 127 εκ. επιθέσεις phishing

Η ασφάλεια βρίσκεται επίσης στο προσκήνιο για το πρόγραμμα περιήγησης της Microsoft. Σύμφωνα με την εταιρεία, ο Edge απέτρεψε 127 εκατομμύρια επιθέσεις phishing κατά τη διάρκεια του 2023, γεγονός που ισοδυναμεί με την αποτροπή τεσσάρων επιθέσεων phishing κάθε δευτερόλεπτο κατά μέσο όρο.

Google Lens: Ανακοινώνει ικανότητα αναγνώρισης προβλημάτων στο δέρμα με μια φωτογραφία

Η Google μόλις ανακοίνωσε ορισμένα νέα features για το Google Lens. Μεταξύ αυτών είναι και μια επιλογή αναγνώρισης πιθανών δερματικών παθήσεων.