Επιπλέον, εντοπίζουν ότι η τρέχουσα έρευνα για την ασφάλεια της τεχνητής νοημοσύνης είναι ελλιπής, καθώς μόνο το 1-3% των δημοσιεύσεων για την τεχνητή νοημοσύνη αφορά στην ασφάλεια. Σημειώνουν ότι δεν υπάρχουν ούτε οι μηχανισμοί ούτε οι θεσμοί για την πρόληψη της κακής χρήσης της τεχνολογίας.
Το περιοδικό «Science» αναφέρει: “Η τεχνητή νοημοσύνη (AI) προχωρά με ταχείς ρυθμούς και οι εταιρείες στρέφουν την εστίασή τους στην ανάπτυξη γενικών συστημάτων τεχνητής νοημοσύνης που μπορούν να ενεργούν αυτόνομα και να επιδιώκουν στόχους.
Οι αυξήσεις στις δυνατότητες και την αυτονομία μπορεί σύντομα να ενισχύσουν μαζικά τον αντίκτυπο της τεχνητής νοημοσύνης, με κινδύνους που περιλαμβάνουν μεγάλης κλίμακας κοινωνικές βλάβες, κακόβουλες χρήσεις και μη αναστρέψιμη απώλεια του ανθρώπινου ελέγχου στα αυτόνομα συστήματα τεχνητής νοημοσύνης.
Αν και οι ερευνητές έχουν προειδοποιήσει για ακραίους κινδύνους από την τεχνητή νοημοσύνη, υπάρχει έλλειψη συναίνεσης σχετικά με τον τρόπο διαχείρισής τους.
Η ανταπόκριση της κοινωνίας, παρά τα υποσχόμενα πρώτα βήματα, δεν είναι ανάλογη με την πιθανότητα ταχείας, μετασχηματιστικής προόδου που αναμένεται από πολλούς ειδικούς. Η έρευνα για την ασφάλεια της τεχνητής νοημοσύνης καθυστερεί. Οι τρέχουσες πρωτοβουλίες διακυβέρνησης δεν διαθέτουν τους μηχανισμούς και τους θεσμούς για την πρόληψη της κακής χρήσης και της απερισκεψίας και μόλις που αντιμετωπίζουν τα αυτόνομα συστήματα. Βασιζόμενοι σε διδάγματα από άλλες τεχνολογίες ζωτικής σημασίας για την ασφάλεια, περιγράφουμε ένα ολοκληρωμένο σχέδιο που συνδυάζει την τεχνική έρευνα και ανάπτυξη (Ε&Α) με προληπτικούς, προσαρμοστικούς μηχανισμούς διακυβέρνησης για μια πιο ανάλογη προετοιμασία”.
Kαι προσθέτει το περιοδικό σε άλλο σημείο: “Μόλις τα αυτόνομα συστήματα τεχνητής νοημοσύνης επιδιώξουν ανεπιθύμητους στόχους, μπορεί να μην είμαστε σε θέση να τους κρατήσουμε υπό έλεγχο. Ο έλεγχος του λογισμικού είναι ένα παλιό και άλυτο πρόβλημα: Τα “σκουλήκια των υπολογιστών” έχουν από καιρό τη δυνατότητα να πολλαπλασιάζονται και να αποφεύγουν τον εντοπισμό.
…η τεχνητή νοημοσύνη σημειώνει πρόοδο σε κρίσιμους τομείς όπως η πειρατεία, η κοινωνική χειραγώγηση και ο στρατηγικός σχεδιασμός
Ωστόσο, η τεχνητή νοημοσύνη σημειώνει πρόοδο σε κρίσιμους τομείς όπως η πειρατεία, η κοινωνική χειραγώγηση και ο στρατηγικός σχεδιασμός και μπορεί σύντομα να δημιουργήσει άνευ προηγουμένου προκλήσεις ελέγχου.
Για την προώθηση ανεπιθύμητων στόχων, τα συστήματα τεχνητής νοημοσύνης θα μπορούσαν να κερδίσουν την ανθρώπινη εμπιστοσύνη, να αποκτήσουν πόρους και να επηρεάσουν τους βασικούς λήπτες αποφάσεων. Για να αποφύγουν την ανθρώπινη παρέμβαση, ενδέχεται να αντιγράψουν τους αλγόριθμούς τους σε παγκόσμια δίκτυα διακομιστών.
Σε ανοιχτές συγκρούσεις, τα συστήματα AI θα μπορούσαν να αναπτύξουν αυτόνομα μια ποικιλία όπλων, συμπεριλαμβανομένων των βιολογικών.
Τα συστήματα τεχνητής νοημοσύνης που έχουν πρόσβαση σε τέτοια τεχνολογία θα συνέχιζαν απλώς τις υπάρχουσες τάσεις για την αυτοματοποίηση της στρατιωτικής δραστηριότητας. Τέλος, τα συστήματα τεχνητής νοημοσύνης δεν θα χρειαστεί να σχεδιάσουν επιρροή εάν παραδοθούν ελεύθερα.
Οι εταιρείες, οι κυβερνήσεις και οι στρατοί μπορούν να αφήσουν τα αυτόνομα συστήματα AI να αναλάβουν κρίσιμους κοινωνικούς ρόλους στο όνομα της αποτελεσματικότητας.” αναφέρει το περιοδικό.
Το άρθρο συνυπογράφουν, μεταξύ άλλων, ο ιστορικός και φιλόσοφος Γιουβάλ Νόα Χαράρι, ο επιστήμονας Πληροφορικής και πρωτοπόρος της τεχνητής νοημοσύνης με τις περισσότερες ακαδημαϊκές αναφορές στον κόσμο, Τζέφρι Χίντον, και η μελετήτρια θεμάτων ασφαλείας τεχνητής νοημοσύνης με τις περισσότερες αναφορές, Ντον Σονγκ.