Οι ΗΠΑ, το Ηνωμένο Βασίλειο και 16 άλλες χώρες υπέγραψαν συμφωνία με την οποία δεσμεύονται να λάβουν μέτρα για να καταστήσουν την τεχνητή νοημοσύνη «ασφαλή από το σχεδιασμό της». Αν και αναγνωρίζεται ότι αποτελεί βασική δήλωση αρχών, η Υπηρεσία Κυβερνοασφάλειας και Ασφάλειας Υποδομών των ΗΠΑ (CISA) δήλωσε ότι είναι ένα σημαντικό πρώτο βήμα…
Σύμφωνα με το Reuters.
Οι Ηνωμένες Πολιτείες, η Βρετανία και περισσότερες από δώδεκα άλλες χώρες αποκάλυψαν την Κυριακή αυτό που ένας ανώτερος αξιωματούχος των ΗΠΑ περιέγραψε ως την πρώτη λεπτομερή διεθνή συμφωνία για το πώς να κρατηθεί η τεχνητή νοημοσύνη ασφαλής από αδίστακτους παράγοντες, πιέζοντας τις εταιρείες να δημιουργήσουν συστήματα τεχνητής νοημοσύνης που είναι «ασφαλή από κατά την δημιουργία τους.” Σε ένα έγγραφο 20 σελίδων που παρουσιάστηκε την Κυριακή, οι 18 χώρες συμφώνησαν ότι οι εταιρείες που σχεδιάζουν και χρησιμοποιούν τεχνητή νοημοσύνη πρέπει να την αναπτύξουν και να την αναπτύξουν με τρόπο που να προστατεύει τους πελάτες και το ευρύτερο κοινό από κακή χρήση.
Οι άλλες χώρες που έχουν εγγραφεί μέχρι στιγμής είναι η Γερμανία, η Ιταλία, η Τσεχία, η Εσθονία, η Πολωνία, η Αυστραλία, η Χιλή, το Ισραήλ, η Νιγηρία και η Σιγκαπούρη.
Η Ευρώπη έχει κάνει το προβάδισμα σε αυτόν τον τομέα, με μια προσπάθεια να δημιουργήσει συγκεκριμένους νόμους που διέπουν την ανάπτυξη και την κυκλοφορία νέων συστημάτων τεχνητής νοημοσύνης – που θα περιλαμβάνει νομική απαίτηση για τις εταιρείες να πραγματοποιούν τακτικές δοκιμές ασφαλείας για τον εντοπισμό πιθανών τρωτών σημείων.
Ωστόσο, η πρόοδος σε αυτό ήταν αργή, με αποτέλεσμα η Γαλλία, η Γερμανία και η Ιταλία να προχωρήσουν σε μια δική τους ενδιάμεση συμφωνία. Ο Λευκός Οίκος προέτρεψε το Κογκρέσο να αναπτύξει κανονισμό για την τεχνητή νοημοσύνη στις ΗΠΑ, αλλά μέχρι σήμερα έχει σημειωθεί μικρή πρόοδος. Ο Πρόεδρος Μπάιντεν τον περασμένο μήνα υπέγραψε εκτελεστικό διάταγμα που απαιτεί από τις εταιρείες τεχνητής νοημοσύνης να διεξάγουν δοκιμές ασφαλείας, κυρίως προσανατολισμένες στην προστασία των συστημάτων από τους χάκερ.
Η δημιουργία νόμων που αποσκοπούν στη διασφάλιση της ασφάλειας των νέων συστημάτων τεχνητής νοημοσύνης είναι απίστευτα δύσκολη. Η ίδια η φύση των συστημάτων τεχνητής νοημοσύνης – τα οποία αναπτύσσουν τις δικές τους ικανότητες, αντί να είναι ειδικά προγραμματισμένα να κάνουν ή να μην κάνουν ορισμένα πράγματα – σημαίνει ότι ακόμη και οι ερευνητές που εργάζονται σε ένα έργο μπορεί να μην έχουν πλήρη επίγνωση του τι μπορεί να επιτύχει ένα νέο μοντέλο τεχνητής νοημοσύνης μέχρι να γίνει.
Είναι επίσης σύνηθες να υπάρχουν διαφωνίες μεταξύ των ερευνητών σχετικά με το ποιες είναι αυτές οι δυνατότητες και τι μπορεί να σημαίνουν για το μέλλον.
Αυτή η συμφωνία 20 σελίδων είναι απίστευτα βασική, περισσότερο μια δήλωση γενικών αρχών παρά ένα σχέδιο, αλλά δεδομένων των προκλήσεων που αντιμετωπίζουμε, πιθανώς είναι τουλάχιστον μια λογική αφετηρία. Καθορίζει ότι οι εταιρείες έρευνας έχουν την υποχρέωση να αναζητούν συγκεκριμένα τρωτά σημεία ασφαλείας. Ωστόσο, είναι σημαντικό να σημειωθεί ότι η πρωτοβουλία ασχολείται αποκλειστικά με το πώς οι χάκερ μπορούν να εκμεταλλευτούν τα συστήματα AI. Δεν αντιμετωπίζει το πολύ ευρύτερο –και μεγαλύτερο– ερώτημα του πώς τα συστήματα τεχνητής νοημοσύνης ενδέχεται να αποτελούν απειλή για την ανθρωπότητα.
Aκολουθήστε το AppleWorldHellas στο Google News για να ενημερώνεστε άμεσα για όλα τα νέα άρθρα! Όσοι χρησιμοποιείτε υπηρεσία RSS (π.χ. Feedly), μπορείτε να προσθέσετε το AppleWorldHellas στη λίστα σας με αντιγραφή και επικόλληση της διεύθυνσης https://appleworldhellas.com/feed. Ακολουθήστε επίσης το AppleWorldHellas.com σε Facebook, Twitter, Instagram, και YouTube