Ο συνιδρυτής της Apple, Steve Wozniak, προειδοποίησε ότι η τεχνητή νοημοσύνη (AI) μπορεί να χρησιμοποιηθεί από “κακόβουλους χρήστες” και να καταστήσει πολύ πιο δύσκολο τον εντοπισμό απατών και παραπληροφόρησης.

Ο Wozniak, που ήταν ένας από τους συνιδρυτές της Apple μαζί με τον αείμνηστο Steve Jobs και εφηύρε τον πρώτο υπολογιστή της εταιρείας, δήλωσε ότι το περιεχόμενο της τεχνητής νοημοσύνης πρέπει να είναι συγκεκριμένο και ξεκάθαρο και τόνισε ότι θα πρέπει να υπάρξουν συγκεκριμένες πολιτικές που θα οριστούν από ρυθμιστικές αρχές.

Ο επιχειρηματίας ήταν ανάμεσα στα 1.800 περίπου άτομα (συμπεριλαμβανομένου του Elon Musk) που υπέγραψαν μια επιστολή τον Μάρτιο για να ζητήσουν εξάμηνη παύση στην ανάπτυξη ισχυρών συστημάτων τεχνητής νοημοσύνης, υποστηρίζοντας ότι το ΑΙ ενέχει σοβαρούς κινδύνους για την ανθρωπότητα.

Ο Steve Wozniak, γνωστός στον κόσμο της τεχνολογίας και ως Woz, μίλησε τόσο για τα οφέλη της τεχνητής νοημοσύνης όσο και για τους κινδύνους.

Το AI είναι τόσο έξυπνο που είναι ανοιχτό στους κακόβουλος χρήστες, αυτούς που θέλουν να σε ξεγελάσουν για το ποιοι είναι“, είπε στο BBC.

Η τεχνητή νοημοσύνη αναφέρεται σε συστήματα υπολογιστών που είναι σε θέση να κάνουν εργασίες που κανονικά θα απαιτούσαν ανθρώπινη νοημοσύνη. Για παράδειγμα, το GPT-4 που αναπτύχθηκε από την OpenAI, μπορεί να συνομιλεί σαν άνθρωπος, να συνθέτει τραγούδια, να συνοψίζει μεγάλα έγγραφα και πολλά άλλα.

Ο Steve Wozniak ισχυρίζεται ότι η τεχνητή νοημοσύνη δεν θα αντικαταστήσει τους ανθρώπους επειδή δεν έχει συναισθήματα. Ωστόσο, προειδοποίησε ότι θα κάνει τους κακόβουλους χρήστες πιο πειστικούς, επειδή προγράμματα όπως το ChatGPT μπορούν να δημιουργήσουν κείμενο που “ακούγεται τόσο έξυπνο“.

Η ευθύνη στους ανθρώπους

Ο επιχειρηματίας υποστήριξε ότι η ευθύνη για τα προγράμματα που παράγονται μέσω AI ανήκει σε αυτούς που το δημοσιεύουν: “Ένας άνθρωπος πρέπει πραγματικά να αναλάβει την ευθύνη για ό,τι δημιουργείται από την τεχνητή νοημοσύνη“.

Επιπλέον, προέτρεψε τις ρυθμιστικές αρχές να κάνουν τις μεγάλες εταιρείες τεχνολογίας να λογοδοτήσουν γι’ αυτού του είδους τις τεχνολογίες, καθώς “αισθάνονται ότι μπορούν να ξεφύγουν με οτιδήποτε“. Ωστόσο, θεωρεί ότι ακόμα και οι ρυθμιστικές αρχές μπορεί να μην το κάνουν σωστά: “Οι δυνάμεις που μας οδηγούν για χρήματα συνήθως κερδίζουν, κάτι που είναι κάπως λυπηρό“, είπε.

Ο Steve Wozniak τόνισε ότι “δεν μπορούμε να σταματήσουμε την τεχνολογία“, αλλά είπε ότι είναι σημαντικό να εκπαιδευτούν οι άνθρωποι ώστε να είναι σε θέση να εντοπίζουν απάτες και κακόβουλες απόπειρες κλοπής προσωπικών πληροφοριών.

Ο διευθύνων σύμβουλος της Apple, Tim Cook, είπε, επίσης, στους επενδυτές την περασμένη εβδομάδα ότι είναι σημαντικό να είναι όλοι προσεκτικοί στον τρόπο προσέγγισης της τεχνητής νοημοσύνης. “Βλέπουμε την τεχνητή νοημοσύνη ως τεράστια και θα συνεχίσουμε να την υφαίνουμε στα προϊόντα μας σε πολύ προσεκτική βάση“, είπε.

Αξίζει να σημειωθεί ότι και ο Geoffrey Hinton ή “Godfather of AI”, του οποίου η έρευνα για τα νευρωνικά δίκτυα βοήθησε να τεθούν τα θεμέλια για την επανάσταση της τεχνητής νοημοσύνης, έφυγε πρόσφατα από τη Google και εξέφρασε δημοσίως τους φόβους του για το ρυθμό ανάπτυξης των συστημάτων AI και τους πιθανούς κινδύνους για τους ανθρώπους. Η τεχνητή νοημοσύνη αποτελεί μια σημαντική πρόοδο της τεχνολογίας. Από την άλλη, όμως, οι κίνδυνοι που μπορεί να προκαλέσει δεν πρέπει να αγνοούνται.

Πηγή: theguardian.com

Tags:

Αφήστε ένα Σχόλιο

Το e-mail σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Διαβάστε επίσης

PCI DSS Requirement 3: Protecting Cardholder Data

Payment Card Industry Data Security Standard (PCI DSS) is a set of security standards designed to protect cardholder data and ensure secure transactions. Requirement 3 of the PCI DSS focuses on the protection of cardholder data, which is a critical aspect of maintaining trust in the payment card industry.

HyperOS 2.0 by Xiaomi: Επαναστατική λειτουργία ανίχνευσης κρυφών καμερών

Αν και οι λεπτομέρειες για το HyperOS 2 είναι ακόμα ελλιπείς, πηγή υποστηρίζει ότι ίσως περιλαμβάνει μια λειτουργία ανίχνευσης κρυφών καμερών.

Έρευνα: Οι χάκερ χρησιμοποιούν το ChatGPT

Το ChatGPT συνεχίζει να γίνεται γνωστό – αλλά αυτή τη φορά για όλους τους λάθος λόγους, προειδοποιούν οι ειδικοί.