Αρκετοί νυν και πρώην υπάλληλοι της OpenAI και της Google DeepMind μοιράστηκαν σήμερα μια ανοιχτή επιστολή προειδοποιώντας για τους κινδύνους της προηγμένης τεχνητής νοημοσύνης και την τρέχουσα έλλειψη εποπτείας των εταιρειών που εργάζονται στην τεχνολογία AI.
Οι εργαζόμενοι προτείνουν ότι αντιμετωπίζουμε αρκετούς κινδύνους από την ανάπτυξη της τεχνητής νοημοσύνης, συμπεριλαμβανομένης της περαιτέρω εδραίωσης των υπαρχουσών ανισοτήτων, της χειραγώγησης και της παραπληροφόρησης και της απώλειας ελέγχου των αυτόνομων συστημάτων τεχνητής νοημοσύνης, κάτι που σύμφωνα με την επιστολή θα μπορούσε να οδηγήσει στην εξαφάνιση του ανθρώπου.
Οι εταιρείες τεχνητής νοημοσύνης έχουν «ισχυρά οικονομικά κίνητρα» για να προχωρήσουν στην ανάπτυξη και να αποφύγουν την ανταλλαγή πληροφοριών σχετικά με τα προστατευτικά μέτρα και τα επίπεδα κινδύνου τους. «Δεν πιστεύουμε ότι όλοι μπορούν να βασιστούν για να το μοιραστούν οικειοθελώς», αναφέρεται στην επιστολή, η οποία αναφέρει ότι εναπόκειται σε νυν και πρώην εργαζόμενους να μιλήσουν.
Εφόσον δεν υπάρχει αποτελεσματική κυβερνητική εποπτεία αυτών των εταιρειών, οι νυν και οι πρώην υπάλληλοι είναι από τους λίγους ανθρώπους που μπορούν να τους ζητήσουν να λογοδοτήσουν στο κοινό. Ωστόσο, οι ευρείες συμφωνίες εμπιστευτικότητας μάς εμποδίζουν να εκφράσουμε τις ανησυχίες μας, εκτός από τις ίδιες τις εταιρείες που ενδέχεται να αποτυγχάνουν να αντιμετωπίσουν αυτά τα ζητήματα. Οι συνήθεις προστασίες πληροφοριοδοτών είναι ανεπαρκείς επειδή επικεντρώνονται στην παράνομη δραστηριότητα, ενώ πολλοί από τους κινδύνους που μας απασχολούν δεν έχουν ακόμη ρυθμιστεί.
Οι εργαζόμενοι καλούν τελικά τις εταιρείες τεχνητής νοημοσύνης να προσφέρουν σταθερή προστασία στους καταγγέλλοντες για να μιλήσουν για τους κινδύνους της τεχνητής νοημοσύνης:
- Αποφύγετε τη δημιουργία ή την επιβολή συμφωνιών που αποτρέπουν την κριτική για ανησυχίες που σχετίζονται με τον κίνδυνο.
- Προσφέρετε μια επαληθεύσιμη ανώνυμη διαδικασία στους υπαλλήλους για να αναφέρουν ανησυχίες σχετικά με τον κίνδυνο στο διοικητικό συμβούλιο, στις ρυθμιστικές αρχές και σε ανεξάρτητους οργανισμούς με σχετική τεχνογνωσία.
- Υποστηρίξτε μια κουλτούρα ανοιχτής κριτικής για να επιτρέψετε στους υπαλλήλους να εκφράζουν ανησυχίες σχετικά με τους κινδύνους σχετικά με τις τεχνολογίες στο κοινό, το διοικητικό συμβούλιο, τις ρυθμιστικές αρχές και πολλά άλλα, εφόσον προστατεύονται τα εμπορικά μυστικά.
- Αποφύγετε τα αντίποινα κατά των εργαζομένων που μοιράζονται δημόσια εμπιστευτικές πληροφορίες που σχετίζονται με τον κίνδυνο μετά την αποτυχία άλλων διαδικασιών.
H OpenAI έχει απειλήσει τους υπαλλήλους με απώλεια ιδίων κεφαλαίων αν μιλήσουν και τους αναγκάζει να υπογράψουν δρακόντειες συμφωνίες NDA που φιμώνουν την κριτική.
► Κέρασε το AppleWorldHellas ένα καφέ: https://crowdfundly.com/appleworldhellas
Aκολουθήστε το AppleWorldHellas στο Google News για να ενημερώνεστε άμεσα για όλα τα νέα άρθρα! Όσοι χρησιμοποιείτε υπηρεσία RSS (π.χ. Feedly), μπορείτε να προσθέσετε το AppleWorldHellas στη λίστα σας με αντιγραφή και επικόλληση της διεύθυνσης https://appleworldhellas.com/feed. Ακολουθήστε επίσης το AppleWorldHellas.com σε Facebook, Twitter, Instagram, και YouTube