Σάββατο 6 Μαΐου 2023

Ο επόμενος φόβος για την τεχνητή νοημοσύνη: τα ρομπότ δολοφόνων του Χόλιγουντ γίνονται εργαλεία του στρατού.

  Όταν ο πρόεδρος των ΗΠΑ Τζο Μπάιντεν ανακοίνωσε αυστηρούς περιορισμούς τον Οκτώβριο στην πώληση των πιο προηγμένων τσιπ υπολογιστών στην Κίνα, το πούλησε, εν μέρει, ως τρόπο να δώσει την ευκαιρία στην αμερικανική βιομηχανία να αποκαταστήσει την ανταγωνιστικότητά της.












Αλλά στο Πεντάγωνο και στο Συμβούλιο Εθνικής Ασφάλειας, υπήρχε μια δεύτερη ατζέντα: ο έλεγχος των όπλων. Εάν ο κινεζικός στρατός δεν μπορεί να πάρει τα τσιπ, λέει η θεωρία, μπορεί να επιβραδύνει την προσπάθειά του να αναπτύξει όπλα που οδηγούνται από τεχνητή νοημοσύνη.

Αυτό θα έδινε στον Λευκό Οίκο και στον κόσμο χρόνο να καταλάβουν ορισμένους κανόνες για τη χρήση της τεχνητής νοημοσύνης σε οτιδήποτε, από αισθητήρες, πυραύλους και κυβερνοόπλα, και τελικά να προφυλαχθούν από μερικούς από τους εφιάλτες που δημιουργεί το Χόλιγουντ - αυτόνομα ρομπότ δολοφόνων και υπολογιστές που κλειδώνουν τους ανθρώπινους δημιουργούς τους.

Τώρα, η ομίχλη του φόβου που περιβάλλει το δημοφιλές chatbot ChatGPT και άλλο λογισμικό παραγωγής τεχνητής νοημοσύνης έχει κάνει τον περιορισμό των τσιπ στην Κίνα να μοιάζει σαν μια προσωρινή λύση. Όταν ο Μπάιντεν αποσύρθηκε από μια συνάντηση στον Λευκό Οίκο την Πέμπτη με στελέχη τεχνολογίας που αγωνίζονται να περιορίσουν τους κινδύνους της τεχνολογίας, το πρώτο του σχόλιο ήταν «Αυτό που κάνετε έχει τεράστιες δυνατότητες και τεράστιο κίνδυνο».

Ήταν μια αντανάκλαση, λένε οι βοηθοί του για την εθνική ασφάλεια, πρόσφατων απόρρητων ενημερώσεων σχετικά με το ενδεχόμενο της νέας τεχνολογίας να ανατρέψει τον πόλεμο, τις συγκρούσεις στον κυβερνοχώρο και —στην πιο ακραία περίπτωση— τη λήψη αποφάσεων για τη χρήση πυρηνικών όπλων.

Ωστόσο, ακόμη και όταν ο Μπάιντεν εξέδιδε την προειδοποίησή του, αξιωματούχοι του Πενταγώνου, μιλώντας σε τεχνολογικά φόρουμ, δήλωσαν ότι θεωρούσαν ότι η ιδέα μιας εξάμηνης παύσης στην ανάπτυξη των επόμενων γενεών του ChatGPT και παρόμοιου λογισμικού ήταν κακή ιδέα: Οι Κινέζοι δεν θα περιμένουν. και ούτε οι Ρώσοι.

«Αν σταματήσουμε, μαντέψτε ποιος δεν πρόκειται να σταματήσει: πιθανοί αντίπαλοι στο εξωτερικό», δήλωσε την Τετάρτη ο επικεφαλής πληροφοριών του Πενταγώνου, Τζον Σέρμαν. «Πρέπει να συνεχίσουμε να κινούμαστε».

Η ωμή δήλωσή του υπογράμμισε την ένταση που είναι αισθητή σε όλη την αμυντική κοινότητα σήμερα. Κανείς δεν ξέρει πραγματικά τι είναι ικανές αυτές οι νέες τεχνολογίες όσον αφορά την ανάπτυξη και τον έλεγχο όπλων, και δεν έχει ιδέα τι είδους καθεστώς ελέγχου των όπλων, αν υπάρχει, μπορεί να λειτουργήσει.

Το προαίσθημα είναι ασαφές, αλλά βαθιά ανησυχητικό. Θα μπορούσε το ChatGPT να ενδυναμώσει κακούς ηθοποιούς που προηγουμένως δεν θα είχαν εύκολη πρόσβαση στην καταστροφική τεχνολογία; Θα μπορούσε να επιταχύνει τις αντιπαραθέσεις μεταξύ των υπερδυνάμεων, αφήνοντας λίγο χρόνο για διπλωματία και διαπραγματεύσεις;

«Η βιομηχανία δεν είναι ανόητη εδώ και ήδη βλέπετε προσπάθειες για αυτορρύθμιση», είπε ο Έρικ Σμιντ, πρώην πρόεδρος της Google που υπηρέτησε ως εναρκτήριος πρόεδρος του συμβουλευτικού Συμβουλίου Αμυντικής Καινοτομίας από το 2016-20.

«Έτσι υπάρχει μια σειρά από ανεπίσημες συζητήσεις που λαμβάνουν χώρα τώρα στον κλάδο — όλες ανεπίσημες — σχετικά με το πώς θα έμοιαζαν οι κανόνες για την ασφάλεια της τεχνητής νοημοσύνης», δήλωσε ο Schmidt, ο οποίος έχει γράψει, μαζί με τον πρώην υπουργό Εξωτερικών, Henry Kissinger, μια σειρά άρθρων και βιβλία σχετικά με τις δυνατότητες της τεχνητής νοημοσύνης να ανατρέψει τη γεωπολιτική.

Η προκαταρκτική προσπάθεια τοποθέτησης προστατευτικών κιγκλιδωμάτων στο σύστημα είναι σαφής σε όποιον έχει δοκιμάσει τις αρχικές επαναλήψεις του ChatGPT. Τα ρομπότ δεν θα απαντήσουν σε ερωτήσεις σχετικά με το πώς να βλάψετε κάποιον με μια παρασκευή ναρκωτικών, για παράδειγμα, ή πώς να ανατινάξετε ένα φράγμα ή να σακατέψετε πυρηνικές φυγόκεντρες, όλες τις λειτουργίες στις οποίες έχουν εμπλακεί οι Ηνωμένες Πολιτείες και άλλα έθνη χωρίς το όφελος των εργαλείων τεχνητής νοημοσύνης .

Ο πρώην επικεφαλής της Google, Eric Schmidt, λέει ότι ένα βασικό πρόβλημα με την τεχνητή νοημοσύνη στον στρατό και στην εθνική ασφάλεια είναι ο τρόπος με τον οποίο αμύνεσαι έναντι επιθέσεων που είναι ταχύτερες από την ανθρώπινη λήψη αποφάσεων.  |  REUTERS
Ο πρώην επικεφαλής της Google, Eric Schmidt, λέει ότι ένα βασικό πρόβλημα με την τεχνητή νοημοσύνη στον στρατό και στην εθνική ασφάλεια είναι ο τρόπος με τον οποίο αμύνεσαι έναντι επιθέσεων που είναι ταχύτερες από την ανθρώπινη λήψη αποφάσεων. REUTERS

Αλλά αυτές οι μαύρες λίστες ενεργειών θα επιβραδύνουν την κακή χρήση αυτών των συστημάτων. Λίγοι πιστεύουν ότι μπορούν να σταματήσουν εντελώς τέτοιες προσπάθειες. Υπάρχει πάντα μια πειρατεία για να παρακάμψετε τα όρια ασφαλείας, όπως μπορεί να επιβεβαιώσει οποιοσδήποτε έχει προσπαθήσει να απενεργοποιήσει τα επείγοντα ηχητικά σήματα στο σύστημα προειδοποίησης ζώνης ασφαλείας ενός αυτοκινήτου.

Παρόλο που το νέο λογισμικό έχει δημοσιοποιήσει το ζήτημα, δεν είναι σχεδόν νέο για το Πεντάγωνο. Οι πρώτοι κανόνες για την ανάπτυξη αυτόνομων όπλων δημοσιεύθηκαν πριν από μια δεκαετία. Το Κοινό Κέντρο Τεχνητής Νοημοσύνης του Πενταγώνου ιδρύθηκε πριν από πέντε χρόνια για να διερευνήσει τη χρήση της τεχνητής νοημοσύνης στη μάχη.

Ορισμένα όπλα λειτουργούν ήδη με αυτόματο πιλότο. Οι πύραυλοι Patriot, που καταρρίπτουν πυραύλους ή αεροπλάνα που εισέρχονται σε προστατευμένο εναέριο χώρο, έχουν εδώ και καιρό μια «αυτόματη» λειτουργία. Τους δίνει τη δυνατότητα να πυροβολούν χωρίς ανθρώπινη παρέμβαση όταν κατακλύζονται από εισερχόμενους στόχους πιο γρήγορα από ό,τι θα μπορούσε να αντιδράσει ένας άνθρωπος. Υποτίθεται όμως ότι επιβλέπονται από ανθρώπους που μπορούν να αποτρέψουν τις επιθέσεις αν χρειαστεί.

Η δολοφονία του Mohsen Fakhrizadeh, του κορυφαίου πυρηνικού επιστήμονα του Ιράν, διεξήχθη από την ισραηλινή Μοσάντ χρησιμοποιώντας ένα αυτόνομο πολυβόλο που υποβοηθήθηκε από AI — αν και φαίνεται ότι υπήρχε υψηλός βαθμός τηλεχειρισμού. Η Ρωσία δήλωσε πρόσφατα ότι έχει αρχίσει να κατασκευάζει —αλλά δεν έχει ακόμη αναπτύξει— την υποθαλάσσια πυρηνική τορπίλη Poseidon.

Εάν ανταποκρίνεται στη ρωσική διαφημιστική εκστρατεία, το όπλο θα είναι σε θέση να ταξιδέψει σε έναν ωκεανό αυτόνομα, αποφεύγοντας τις υπάρχουσες πυραυλικές άμυνες, για να παραδώσει ένα πυρηνικό όπλο μέρες μετά την εκτόξευση.

Μέχρι στιγμής, δεν υπάρχουν συνθήκες ή διεθνείς συμφωνίες που να αφορούν τέτοια αυτόνομα όπλα. Σε μια εποχή που οι συμφωνίες για τον έλεγχο των εξοπλισμών εγκαταλείπονται ταχύτερα από ό,τι διαπραγματεύονται, υπάρχει μικρή προοπτική για μια τέτοια συμφωνία. Αλλά το είδος των προκλήσεων που θέτει το ChatGPT και τα παρόμοια του είναι διαφορετικά και κατά κάποιο τρόπο πιο περίπλοκα.

Στον στρατό, τα συστήματα με τεχνητή νοημοσύνη μπορούν να επιταχύνουν τον ρυθμό των αποφάσεων στο πεδίο της μάχης σε τέτοιο βαθμό ώστε να δημιουργούν εντελώς νέους κινδύνους τυχαίων χτυπημάτων ή αποφάσεων που λαμβάνονται για παραπλανητικές ή εσκεμμένα ψευδείς ειδοποιήσεις για εισερχόμενες επιθέσεις.

«Ένα βασικό πρόβλημα με την τεχνητή νοημοσύνη στον στρατό και την εθνική ασφάλεια είναι πώς αμύνεστε από επιθέσεις που είναι ταχύτερες από τη λήψη αποφάσεων από τον άνθρωπο, και νομίζω ότι αυτό το ζήτημα δεν έχει επιλυθεί», είπε ο Schmidt. «Με άλλα λόγια, ο πύραυλος μπαίνει τόσο γρήγορα που πρέπει να υπάρξει αυτόματη απάντηση. Τι θα συμβεί αν είναι ψευδές σήμα;»

Ο Ψυχρός Πόλεμος ήταν γεμάτος ιστορίες ψευδών προειδοποιήσεων - κάποτε επειδή μια εκπαιδευτική ταινία, που προοριζόταν να χρησιμοποιηθεί για την εξάσκηση της πυρηνικής απόκρισης, τοποθετήθηκε κατά κάποιο τρόπο σε λάθος σύστημα και σήμανε συναγερμό για μια μαζική επερχόμενη σοβιετική επίθεση. (Η καλή κρίση οδήγησε όλους να σηκωθούν κάτω.)

Ο Paul Scharre, ο οποίος είναι μέλος του Κέντρου για μια Νέα Αμερικανική Ασφάλεια, σημείωσε στο βιβλίο του το 2018, «Army of None», ότι υπήρξαν «τουλάχιστον 13 πυρηνικά επεισόδια παρ' ολίγον χρήσης από το 1962 έως το 2002», γεγονός που «προσδίδει αξιοπιστία στους άποψη ότι τα σχεδόν ατυχήματα είναι φυσιολογικές, αν και τρομακτικές, συνθήκες πυρηνικών όπλων».

Για το λόγο αυτό, όταν οι εντάσεις μεταξύ των υπερδυνάμεων ήταν πολύ χαμηλότερες από ό,τι είναι σήμερα, μια σειρά προέδρων προσπάθησαν να διαπραγματευτούν δίνοντας περισσότερο χρόνο στη λήψη πυρηνικών αποφάσεων από όλες τις πλευρές, έτσι ώστε κανείς να μην βιαστεί σε σύγκρουση. Αλλά η γενετική τεχνητή νοημοσύνη απειλεί να ωθήσει τις χώρες προς την άλλη κατεύθυνση, προς την ταχύτερη λήψη αποφάσεων.

Τα καλά νέα είναι ότι οι μεγάλες δυνάμεις είναι πιθανό να είναι προσεκτικές - επειδή ξέρουν πώς θα ήταν η απάντηση από έναν αντίπαλο. Αλλά μέχρι στιγμής, δεν υπάρχουν συμφωνημένοι κανόνες.

Η Anja Manuel, πρώην αξιωματούχος του Στέιτ Ντιπάρτμεντ και τώρα διευθύντρια στην ομάδα συμβούλων Rice, Hadley, Gates and Manuel, έγραψε πρόσφατα ότι ακόμα κι αν η Κίνα και η Ρωσία δεν είναι έτοιμες για συνομιλίες για τον έλεγχο των όπλων σχετικά με την τεχνητή νοημοσύνη, οι συναντήσεις για το θέμα θα οδηγούσαν σε συζητήσεις ποιες χρήσεις της τεχνητής νοημοσύνης θεωρούνται «πέρα από το χλωμό».

Φυσικά, το Πεντάγωνο θα ανησυχεί επίσης για τη συμφωνία σε πολλά όρια.

«Πάλεψα πολύ σκληρά για να αποκτήσω μια πολιτική σύμφωνα με την οποία αν έχετε αυτόνομα στοιχεία όπλων, χρειάζεστε έναν τρόπο να τα απενεργοποιήσετε», είπε ο Ντάνι Χίλις, ένας επιστήμονας υπολογιστών που ήταν πρωτοπόρος στους παράλληλους υπολογιστές που χρησιμοποιούνταν για την τεχνητή νοημοσύνη. Ο Hillis, ο οποίος υπηρέτησε επίσης στο Defense Innovation Board, είπε ότι αξιωματούχοι του Πενταγώνου απώθησαν, λέγοντας ότι «αν μπορούμε να τα απενεργοποιήσουμε, ο εχθρός μπορεί να τα απενεργοποιήσει επίσης».

Οι μεγαλύτεροι κίνδυνοι μπορεί να προέρχονται από μεμονωμένους παράγοντες, τρομοκράτες, ομάδες ransomware ή μικρότερα έθνη με προηγμένες δεξιότητες στον κυβερνοχώρο - όπως η Βόρεια Κορέα - που μαθαίνουν πώς να κλωνοποιούν μια μικρότερη, λιγότερο περιορισμένη έκδοση του ChatGPT. Και μπορεί να διαπιστώσουν ότι το λογισμικό δημιουργίας τεχνητής νοημοσύνης είναι τέλειο για την επιτάχυνση των επιθέσεων στον κυβερνοχώρο και τη στόχευση της παραπληροφόρησης.

Ο Τομ Μπερτ, ο οποίος ηγείται των επιχειρήσεων εμπιστοσύνης και ασφάλειας στη Microsoft, η οποία επιταχύνει τη χρήση της νέας τεχνολογίας για την ανανέωση των μηχανών αναζήτησής της, δήλωσε σε πρόσφατο φόρουμ στο Πανεπιστήμιο Τζορτζ Ουάσιγκτον ότι πίστευε ότι τα συστήματα τεχνητής νοημοσύνης θα βοηθούσαν τους υπερασπιστές να ανιχνεύουν πιο γρήγορα την ανώμαλη συμπεριφορά παρά θα βοηθούσαν τους επιτιθέμενους. Άλλοι ειδικοί διαφωνούν. Ωστόσο, είπε ότι φοβάται ότι θα μπορούσε να «υπερχρεώσει» τη διάδοση στοχευμένης παραπληροφόρησης.

Όλα αυτά προμηνύουν μια εντελώς νέα εποχή ελέγχου των όπλων.

Ορισμένοι ειδικοί λένε ότι δεδομένου ότι θα ήταν αδύνατο να σταματήσει η εξάπλωση του ChatGPT και παρόμοιου λογισμικού, η καλύτερη ελπίδα είναι να περιοριστούν τα εξειδικευμένα τσιπ και η άλλη υπολογιστική ισχύς που απαιτείται για την προώθηση της τεχνολογίας. Αυτό θα είναι αναμφίβολα ένα από τα πολλά διαφορετικά σχέδια ελέγχου των όπλων που θα υποβληθούν τα επόμενα χρόνια, σε μια εποχή που οι μεγάλες πυρηνικές δυνάμεις, τουλάχιστον, δεν δείχνουν ενδιαφέρον να διαπραγματευτούν για παλιά όπλα, πολύ λιγότερο για νέα.

Αυτό το άρθρο δημοσιεύθηκε αρχικά στους New York Times. © 2023 The New York Times Company

japantimes.co.jp

ΑΠΟΔΟΣΗ : Corfiatiko.blogspot.com

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου