Παρασκευή 14 Ιανουαρίου 2022

Οι εμπειρογνώμονες προειδοποιούν ότι η αποτυχία του ΟΗΕ να απαγορεύσει τα Ρομπότ - Δολοφόνους (Slaughterbots) θα μπορούσε να σημάνει το τέλος της ανθρωπότητας.

 

Slaughterbots (Ρομπότ Δολοφόνοι) είναι το όνομα που έχει δοθεί σε όπλα που μπορούν να επιλέξουν και να εφαρμόσουν βία σε στόχους χωρίς τη χρήση ανθρώπινης παρέμβασης.

 

Οι εμπειρογνώμονες σε θέματα στρατιωτικής στρατηγικής και τεχνητής νοημοσύνης κρούουν τον κώδωνα του κινδύνου μετά τη διάσκεψη του ΟΗΕ που δεν κατέληξε σε συμφωνία για την απαγόρευση της χρήσης των λεγόμενων slaughterbots σε πρόσφατη συνάντηση στη Γενεύη.

 

Πηγή: Natural News

Άρθρο της Cassie B.

Μετάφραση: Απολλόδωρος – Συνεργάτης του Ελλήνων Αφύπνιση

 

Τα όπλα αυτά λαμβάνουν τις αποφάσεις τους χρησιμοποιώντας μια σειρά αλγορίθμων σε λογισμικό τεχνητής νοημοσύνης. Ικανά να κυνηγούν και να πλήττουν στόχους χωρίς καμμία συμβολή από τους ελεγκτές, η τεχνολογία τους αναπτύσσεται τόσο γρήγορα που πολλοί φοβούνται ότι οι κοινωνίες και οι κυβερνήσεις δεν έχουν βρει το χρόνο να εξετάσουν πλήρως τους κινδύνους.

Φέτος, για πρώτη φορά, τα περισσότερα από τα 125 έθνη της Σύμβασης του ΟΗΕ για ορισμένα συμβατικά όπλα ζήτησαν νέους νόμους που να διέπουν τα ρομπότ δολοφόνους. Ωστόσο, ορισμένες χώρες αντιτάχθηκαν στο μέτρο, όπως οι ΗΠΑ και η Ρωσία, οι οποίες είναι γνωστό ότι εργάζονται για την ανάπτυξη τέτοιων όπλων. Άλλα έθνη που εξέφρασαν αντιρρήσεις ήταν η Ινδία, η Αυστραλία και το Ηνωμένο Βασίλειο, με ορισμένους να υποστηρίζουν ότι η συνέχιση της ανάπτυξης αυτών των ρομπότ δολοφόνων είναι ζωτικής σημασίας για να μην έχουν στρατηγικό μειονέκτημα.

Η επικεφαλής του προγράμματος υπεράσπισης των αυτόνομων όπλων του Future of Life Institute, Emilia Javorsky, χαρακτήρισε την αποτυχία της ομάδας να καταλήξει σε συμφωνία ως "επική αποτυχία".

Η ίδια πρόσθεσε: "Είναι πλέον κατάφωρα σαφές ότι αυτό το φόρουμ - του οποίου η απαίτηση ομοφωνίας το καθιστά εύκολα εκτροχιασμένο από οποιοδήποτε κράτος με συμφέρον - είναι εντελώς ανίκανο να λάβει σοβαρά υπόψη του, πόσο μάλλον να αντιμετωπίσει με νόημα, τις επείγουσες απειλές που θέτουν οι αναδυόμενες τεχνολογίες όπως η τεχνητή νοημοσύνη".

Δυστυχώς, ο χρόνος φαίνεται να εξαντλείται, καθώς τα ρομπότ-δολοφόνους (σφαγής) χρησιμοποιούνται ήδη σε ορισμένα μέρη στο πεδίο της μάχης. Για παράδειγμα, μια έκθεση του ΟΗΕ που δημοσιεύθηκε αυτή την άνοιξη έδειξε ότι τα μη επανδρωμένα αεροσκάφη STM Kargu έχουν χρησιμοποιηθεί στον εμφύλιο πόλεμο της Λιβύης. Αυτά τα μικρά, φορητά αεροσκάφη επίθεσης με περιστρεφόμενες πτέρυγες έχουν δυνατότητες κρούσης ακριβείας και χρησιμοποιήθηκαν για να κυνηγήσουν στρατιώτες που υποχωρούσαν.

Οι εταιρείες που αναπτύσσουν τα μη επανδρωμένα αεροσκάφη εργάζονται πάνω σε συστήματα τεχνητής νοημοσύνης που θα μπορούν να βρίσκουν τη θερμική υπογραφή ενός ανθρώπινου στόχου ή ακόμη και να αναγνωρίζουν τα πρόσωπα των ανθρώπων χρησιμοποιώντας μια κάμερα. Ωστόσο, φαίνεται ότι δεν διαθέτουν κάποια από την ακρίβεια που απαιτείται για να κάνουν τη διάκριση μεταξύ ενός μαχητή και ενός μη μαχητή.

Αυτά τα όπλα θα μπορούσε να τα αποκτήσει εύκολα ο καθένας

Τα μη επανδρωμένα αεροσκάφη STM είναι από τα πιο ανησυχητικά για πολλούς αξιωματούχους, όχι μόνο λόγω της ομοιότητάς τους με ένα κανονικό καταναλωτικό μη επανδρωμένο αεροσκάφος. Είναι αρκετά φθηνά, εύκολο να παραχθούν μαζικά και μπορούν να εξοπλιστούν με όπλα. Ορισμένοι ειδικοί έχουν προειδοποιήσει ότι αυτή η προσβασιμότητα σημαίνει ότι συμμορίες και άλλοι εγκληματίες θα μπορούσαν να προσπαθήσουν να τα χρησιμοποιήσουν.

Ο καθηγητής του Ινστιτούτου Τεχνολογίας της Μασαχουσέτης Max Tegmark πιστεύει ότι οδεύουμε προς το "χειρότερο δυνατό αποτέλεσμα". Είπε χαρακτηριστικά: "Αυτό θα είναι το όπλο επιλογής για οποιονδήποτε θέλει να σκοτώσει οποιονδήποτε. Ένα slaughterbot θα μπορεί ουσιαστικά να δολοφονήσει ανώνυμα οποιονδήποτε έχει τσαντίσει κάποιον".

Ο Tegmark είπε στη Sun μερικούς από τους τρόπους με τους οποίους θα μπορούσε να χρησιμοποιηθεί αυτή η τεχνολογία. Για παράδειγμα, επισήμανε ότι αν τα slaughterbots κοστίζουν το ίδιο με τα AK-47, τα καρτέλ ναρκωτικών θα χρησιμοποιούσαν τα ρομπότ για να αποφεύγουν να συλλαμβάνονται όταν σκοτώνουν ανθρώπους. Είπε επίσης ότι ένας δικαστής με πολλούς σωματοφύλακες θα μπορούσε ακόμα να σκοτωθεί από ένα από αυτά αν πετούσε στο παράθυρο της κρεβατοκάμαράς του ενώ κοιμόταν.

Ο καθηγητής του Macalester College, James Dawes, δήλωσε:

"Είναι ένας κόσμος όπου το είδος των αναπόφευκτων αλγοριθμικών σφαλμάτων που ταλαιπωρούν ακόμη και τεχνολογικούς γίγαντες όπως η Amazon και η Google μπορεί πλέον να οδηγήσει στην εξάλειψη ολόκληρων πόλεων"."Ο κόσμος δεν πρέπει να επαναλάβει τα καταστροφικά λάθη της κούρσας των πυρηνικών εξοπλισμών. Δεν θα πρέπει να υπνοβατεί στη δυστοπία", πρόσθεσε.

Δεν υπάρχει περίπτωση να έχει καλό τέλος όταν αφήνεις μηχανές που είναι επιρρεπείς σε απρόβλεπτα λάθη να αποφασίζουν μόνες τους για το ποιον θα σκοτώσουν. Αν αυτά τα όπλα τεχνητής νοημοσύνης ήταν εξοπλισμένα με χημικές, βιολογικές ή πυρηνικές κεφαλές, θα μπορούσαν ακόμη και να εξαφανίσουν την ανθρωπότητα.

Πηγές για αυτό το άρθρο συμπεριλαμβάνουν:

The-Sun.com

CNBC.com


Οι απόψεις του ιστολογίου μπορεί να μην συμπίπτουν με τα περιεχόμενα του άρθρου.  To ιστολόγιο μας δεν υιοθετεί τις απόψεις των αρθρογράφων, ούτε ταυτίζεται με τα θέματα που αναδημοσιεύει από άλλες ενημερωτικές ιστοσελίδες και δεν ευθύνεται για την εγκυρότητα, την αξιοπιστία και το περιεχόμενό τους.

ellinikiafipnisis.blogspot.com

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου