Κυριακή 05 Μαϊου 2024
weather-icon 21o
Ποιά αποφασισμένα κράτη δημιουργούν ρομπότ δολοφόνους που θα λειτουργούν αυτόνομα

Ποιά αποφασισμένα κράτη δημιουργούν ρομπότ δολοφόνους που θα λειτουργούν αυτόνομα

Όταν στρατηγοί και πολιτικοί σε ΗΠΑ και Ρωσία συμφωνούν στη δημιουργία αυτόνομων δολοφόνων, εύλογα προκαλείται ρίγος στα περισσότερα κράτη του πλανήτη

Στις αρχές της δεκαετίας του 1990, εκατομμύρια –ανυποψίαστοι ίσως- σινεφίλ αγάπησαν τη ταινία Εξολοθρευτής Νο 2. Η υπόθεση εξελισσόταν γύρω από ένα υπερσύγχρονο ρομπότ που ήρθε από το μέλλον για να δολοφονήσει τον μελλοντικό ηγέτη της «αντίστασης» των ανθρώπων.

«Αντίστασης» όμως σε ποιούς; Στα ίδια τα ρομπότ που, πολύ γρήγορα πλησίαζε η στιγμή που χάρη στα εξελιγμένα τσιπ –που κατασκεύασαν οι άνθρωποι- θα «συνειδητοποιούσαν» τη δύναμή τους να… παίρνουν πρωτοβουλίες και επομένως να εξοντώσουν την ανθρωπότητα.

Τρεις δεκαετίες μετά, πανίσχυρα κράτη του πλανήτη απεργάζονται τη δημιουργία τέτοιων δολοφόνων, δίχως να έχουν καμία πρόθεση να φτιάξουν όσο είναι νωρίς ακόμα κανονιστικό πλαίσιο.

Ενώ ο ΟΗΕ παρέχει μια πλατφόρμα στις κυβερνήσεις για να εκφράσουν τις ανησυχίες τους, η διαδικασία φαίνεται απίθανο να επιφέρει ουσιαστικούς νέους νομικά δεσμευτικούς περιορισμούς. Πρόσφατα διπλωμάτες από πολλά κράτη συναντήθηκαν σε μια αίθουσα συνεδριάσεων στην έδρα του ΟΗΕ στη Νέα Υόρκη για να ανταλλάξουν απόψεις.

Αναδεικνύοντας το φλέγον ζήτημα οι New York Times, αναφέρουν ότι οι ΗΠΑ, η Ρωσία, η Αυστραλία, το Ισραήλ και άλλοι έχουν υποστηρίξει ότι δεν χρειάζεται κανένα νέο διεθνές δίκαιο προς το παρόν, ενώ η Κίνα θέλει να ορίσει οποιοδήποτε νομικό όριο τόσο στενά που θα είχε μικρό πρακτικό αποτέλεσμα, λένε οι υποστηρικτές του ελέγχου των όπλων.

Η συζήτηση για τους κινδύνους της τεχνητής νοημοσύνης έχει ανανεώσει τη προσοχή τις τελευταίες ημέρες με τη μάχη για τον έλεγχο της OpenAI, ίσως της κορυφαίας εταιρείας τεχνητής νοημοσύνης στον κόσμο, της οποίας τα μεγάλα κεφάλια κονταροχτυπιούνται εάν η εταιρεία λαμβάνει επαρκώς υπόψη τους κινδύνους της τεχνολογίας.

Την περασμένη εβδομάδα, αξιωματούχοι από τη Κίνα και τις ΗΠΑ συζήτησαν για πιθανά όρια στη χρήση της τεχνητής νοημοσύνης όσον αφορά τις αποφάσεις για την ανάπτυξη πυρηνικών όπλων.

Η πρώτη συνεδρίαση του Συμβουλίου Ασφαλείας για την τεχνητή νοημοσύνη (AI). Αυτή η συνάντηση, που συγκλήθηκε από το Ηνωμένο Βασίλειο, πραγματεύεται το θέμα «Τεχνητή νοημοσύνη: ευκαιρίες και κίνδυνοι για τη διεθνή ειρήνη και ασφάλεια». Ο Γενικός Γραμματέας είχε δηλώσει μεταξύ άλλων: «Προτρέπω το Συμβούλιο να προσεγγίσει αυτήν την τεχνολογία με μια αίσθηση επείγουσας ανάγκης, έναν παγκόσμιο φακό και τη νοοτροπία του μαθητή». (UN Photo/Eskinder Debebe)

«Σε αυτό το πλαίσιο, το ερώτημα ποια όρια πρέπει να τεθούν στη χρήση θανατηφόρων αυτόνομων όπλων έχει αποκτήσει νέα επιτακτική ανάγκη και προς το παρόν έχει καταλήξει στο αν αρκεί για τον ΟΗΕ απλώς να υιοθετήσει μη δεσμευτικές κατευθυντήριες γραμμές, τη θέση που υποστηρίζουν οι ΗΠΑ» αναφέρουν οι New York Times.

Το θέμα έγινε πολύ πιο επείγον μετά τη θεαματική πρόοδο στην τεχνητή νοημοσύνη και τη χρήση drones στους πολέμους της Ουκρανίας και στη Μέση Ανατολή. Μέχρι στιγμής, τα drones βασίζονται γενικά σε ανθρώπινους χειριστές για την εκτέλεση θανατηφόρων αποστολών, αλλά αναπτύσσεται λογισμικό που σύντομα θα τους επιτρέψει να βρίσκουν και να επιλέγουν περισσότερους στόχους μόνοι τους.

Το έντονο μπλοκάρισμα των ραδιοεπικοινωνιών και του GPS στην Ουκρανία απλώς επιτάχυνε την εξέλιξή τους, καθώς τα αυτόνομα drones μπορούν συχνά να συνεχίσουν να λειτουργούν ακόμα και όταν διακόπτονται οι επικοινωνίες.

Το ζήτημα λοιπόν είναι τι πρέπει να γίνει.

Οι ΗΠΑ δεν υπακούνε στα «πρέπει»

«Η λέξη «πρέπει» θα είναι πολύ δύσκολο να γίνει αποδεχτή από την αντιπροσωπεία μας», είπε ο Τζόσουα Ντοροσίν, αξιωματούχος του Στέιτ Ντιπάρτμεντ, σε άλλους διαπραγματευτές κατά τη διάρκεια μιας συζήτησης τον Μάιο σχετικά προετεινόμενους περιορισμούς.

Οι Αμερικανοί υποστήριξαν ότι αντί για ένα νέο διεθνές δίκαιο, ο ΟΗΕ θα πρέπει να διευκρινίσει ότι οι υφιστάμενοι διεθνείς νόμοι για τα ανθρώπινα δικαιώματα ήδη απαγορεύουν στα κράτη να χρησιμοποιούν όπλα που στοχεύουν αμάχους ή προκαλούν δυσανάλογη ποσότητα βλάβης σε αυτούς.

Αξιωματούχοι του Πενταγώνου έχουν καταστήσει σαφές ότι ετοιμάζονται να αναπτύξουν αυτόνομα όπλα σε μεγάλο βαθμό. Η αναπληρώτρια υπουργός Άμυνας Kathleen Hicks ανακοίνωσε το καλοκαίρι του 2023 ότι ο στρατός των ΗΠΑ «θα τοποθετήσει αξιόπιστα, αυτόνομα συστήματα σε κλίμακα πολλών χιλιάδων» τα επόμενα δύο χρόνια, λέγοντας ότι η ώθηση να ανταγωνιστεί την επένδυση της ίδιας της Κίνας σε προηγμένα όπλα απαιτούσε από τις ΗΠΑ να αξιοποιήσει μικρές, έξυπνες, φθηνές και πολλές πλατφόρμες».

Μέχρι σήμερα υπήρχαν αυτόνομα όπλα, όπως τα αμερικανικά πυραυλικά συστήματα που βασίζονται σε αισθητήρες ραντάρ για να κλειδώνουν αυτόνομα και να χτυπούν στόχους. Αυτό που αλλάζει είναι η εισαγωγή της τεχνητής νοημοσύνης που θα μπορούσε να δώσει στα οπλικά συστήματα τη δυνατότητα να λαμβάνουν αποφάσεις μετά τη λήψη και την επεξεργασία πληροφοριών.

«Είναι ηθική επιταγή οι ΗΠΑ και άλλα δημοκρατικά έθνη να κατασκευάσουν και να χρησιμοποιήσουν αυτόνομα όπλα»

Οι ΗΠΑ έχουν ήδη υιοθετήσει πολιτικές -όχι υποχρεωτικές- που θέτουν όρια στον τρόπο χρήσης της τεχνητής νοημοσύνης και των θανατηφόρων αυτόνομων όπλων. Η αμερικανική θέση, σύμφωνα με την υφυπουργό του Στέιτ Ντιπάρτμεντ Μπόνι Ντενίζ Τζένκινς, «θα επιτρέψει στα κράτη να αξιοποιήσουν τα πιθανά οφέλη της τεχνητής νοημοσύνης στον στρατιωτικό τομέα, ενώ ενθαρρύνουν βήματα που αποφεύγουν την ανεύθυνη, αποσταθεροποιητική και απερίσκεπτη συμπεριφορά».

Η πολιτική του Πενταγώνου απαγορεύει τη χρήση οποιουδήποτε νέου αυτόνομου όπλου ή ακόμα και την ανάπτυξή τους, εκτός εάν έχουν εγκριθεί από ανώτατους αξιωματούχους. Τέτοια όπλα πρέπει να χρησιμοποιούνται σε μια καθορισμένη γεωγραφική περιοχή για περιορισμένες περιόδους. Και εάν τα όπλα ελέγχονται από τεχνητή νοημοσύνη, το στρατιωτικό προσωπικό πρέπει να διατηρήσει «την ικανότητα να αποδεσμεύει ή να απενεργοποιεί τα αναπτυγμένα συστήματα που επιδεικνύουν ακούσια συμπεριφορά».

Αν και Αμερικανοί στρατηγοί έχουν δηλώσει ότι αρχικά τουλάχιστον θα χρειαστεί ανθρώπινη έγκριση πριν αναληφθεί θανατηφόρα δράση, ο αρχηγός της Αμερικανικής Πολεμικής Αεροπορίας Frank Kendall, είπε ότι αυτά τα μηχανήματα θα χρειαστεί τελικά να έχουν τη δύναμη να αναλάβουν θανατηφόρα δράση μόνα τους, ενώ θα παραμείνουν υπό την ανθρώπινη επίβλεψη στον τρόπο με τον οποίο αναπτύσσονται.

«Οι ατομικές αποφάσεις έναντι της μη λήψης ατομικών αποφάσεων είναι η διαφορά μεταξύ νίκης και ήττας – και δεν πρόκειται να χάσεις», είπε. «Δεν νομίζω ότι οι άνθρωποι τους οποίους θα αντιμετωπίσουμε θα το έκαναν αυτό και θα τους έδινε τεράστιο πλεονέκτημα αν βάλουμε αυτόν τον περιορισμό στους εαυτούς μας».

Ο απόστρατος και σήμερα ερευνητής στο Πανεπιστήμιο Εθνικής Άμυνας του Πενταγώνου Thomas X. Hammes, πιστεύει ότι είναι «ηθική επιταγή οι ΗΠΑ και άλλα δημοκρατικά έθνη να κατασκευάσουν και να χρησιμοποιήσουν αυτόνομα όπλα» διότι πιστεύει ότι «η αποτυχία να το κάνει σε μια μεγάλη συμβατική σύγκρουση θα έχει ως αποτέλεσμα πολλούς θανάτους, τόσο στρατιωτικών όσο και πολιτών, και πιθανώς την ήττα στον πόλεμο».

Ο αντίλογος: Δεν μιλάμε για δυστοπικό μυθιστόρημα

Αυτές όμως οι τοποθετήσεις έχουν προκαλέσει ίσως και τρόμο στα υπόλοιπα κράτη, δηλώνοντας ότι ανησυχούν ότι τα φονικά αυτόνομα όπλα θα προλάβουν να γίνουν ρουτίνα στο πεδίο της μάχης, δίχως να καθοριστούν κανόνες για τη χρήση τους. «Ο εφησυχασμός δεν φαίνεται να αποτελεί πλέον επιλογή», δήλωσε ο πρεσβευτής Khalil Hashmi του Πακιστάν κατά τη διάρκεια συνάντησης στα κεντρικά γραφεία του ΟΗΕ. «Το παράθυρο ευκαιρίας για δράση μειώνεται ραγδαία καθώς προετοιμαζόμαστε για μια τεχνολογική έκρηξη».

«Αυτή δεν είναι η πλοκή ενός δυστοπικού μυθιστορήματος, αλλά μια διαφαινόμενη πραγματικότητα», είπε ο Γκαστόν Μπράουν, ο πρωθυπουργός της Αντίγκουα και Μπαρμπούντα, στους αξιωματούχους σε πρόσφατη συνεδρίαση του ΟΗΕ.

«Οι άνθρωποι θα ρωτήσουν: Γιατί δεν ενεργήσαμε αρκετά γρήγορα ώστε να προσπαθήσουμε να βάλουμε όρια όταν είχαμε την ευκαιρία;»

Εκφράζονται φόβοι ότι τα θανατηφόρα ελεγχόμενα από τεχνητή νοημοσύνη όπλα που θα στοχεύουν ατομικούς στόχους, θα μεταμορφώσουν τη φύση του πολέμου εξαλείφοντας τον άμεσο ηθικό ρόλο που διαδραματίζουν οι άνθρωποι στις αποφάσεις για την αφαίρεση μιας ζωής.

Λόγω του ότι μερικές φορές δρουν απρόβλεπτα, είναι πιθανό να κάνουν λάθη στον εντοπισμό στόχων, όπως τα αυτοκίνητα χωρίς οδηγό που έχουν ατυχήματα, λένε αυτοί οι επικριτές. Τα νέα όπλα μπορεί επίσης να κάνουν πιο πιθανή τη χρήση θανατηφόρου δύναμης κατά τη διάρκεια του πολέμου, καθώς ο στρατός που τα εκτοξεύει δεν θα έθετε αμέσως σε κίνδυνο τους δικούς του στρατιώτες ή θα μπορούσε να οδηγήσει σε ταχύτερη κλιμάκωση, υποστήριξαν οι αντίπαλοι.

Ομάδες ελέγχου όπλων, όπως η Διεθνής Επιτροπή του Ερυθρού Σταυρού και το Stop Killer Robots, μαζί με εθνικές αντιπροσωπείες όπως η Αυστρία, η Αργεντινή, η Νέα Ζηλανδία, η Ελβετία και η Κόστα Ρίκα, έχουν προτείνει μια σειρά μέτρων.

Κάποιοι θα επιδιώξουν να απαγορεύσουν παγκοσμίως τα θανατηφόρα αυτόνομα όπλα που στοχεύουν ρητά ανθρώπους. Άλλοι θα απαιτούσαν αυτά τα όπλα να παραμείνουν υπό «ουσιαστικό ανθρώπινο έλεγχο» και ότι πρέπει να χρησιμοποιούνται σε περιορισμένες περιοχές για συγκεκριμένο χρονικό διάστημα.

Ο Αυστριακός διπλωμάτης Kmentt παραδέχτηκε σε συνέντευξή του ότι ο ΟΗΕ αντιμετώπισε προβλήματα στην επιβολή των υφιστάμενων συνθηκών που θέτουν όρια στον τρόπο διεξαγωγής των πολέμων. Ωστόσο, εξακολουθεί να υπάρχει ανάγκη να δημιουργηθεί ένα νέο νομικά δεσμευτικό πρότυπο, είπε.

«Ακριβώς επειδή κάποιος θα διαπράττει πάντα φόνο, αυτό δεν σημαίνει ότι δεν χρειάζεστε νομοθεσία για να το απαγορεύσετε», είπε. «Αυτό που έχουμε αυτή τη στιγμή είναι ότι όλος αυτός ο τομέας είναι εντελώς ανεξέλεγκτος».

«Αν περιμένουμε πολύ, θα το μετανιώσουμε πραγματικά», είπε ο κ. Kmentt. «Μόλις, θα είναι φθηνό, εύκολα διαθέσιμο και θα είναι παντού. Και οι άνθρωποι θα ρωτήσουν: Γιατί δεν ενεργήσαμε αρκετά γρήγορα ώστε να προσπαθήσουμε να βάλουμε όρια όταν είχαμε την ευκαιρία;»

ΗΠΑ – Ρωσία: «Συμμαχία»

Ο Αμερικανός Ντοροσίν διαφωνεί διαφωνώντας σε εκκλήσεις όπως τα όπλα να βρίσκονται υπό «ουσιαστικό ανθρώπινο έλεγχο». Οι Αμερικανοί προτιμούν να λένε «εντός μιας υπεύθυνης ανθρώπινης αλυσίδας διοίκησης». Είπε ότι είναι σημαντικό για τις ΗΠΑ οι διαπραγματευτές «να αποφύγουν την ασαφή, γενική ορολογία».

Ωστόσο, ούτε οι Ρώσοι φαίνονται διατεθειμένοι να κουβεντιάσουν και πολύ ένα ρυθμιστικό πλαίσιο. «Δεν βλέπουμε ότι είναι πραγματικά η κατάλληλη στιγμή», είπε ο αναπληρωτής επικεφαλής της ρωσικής αντιπροσωπείας στον ΟΗΕ Κωνσταντίν Βορόντσοφ.

Παίρνοντας, μάλιστα τον λόγο ο Ρώσος συμφώνησε με τον Αμερικανό! «Κατανοούμε ότι για πολλές αντιπροσωπείες προτεραιότητα είναι ο ανθρώπινος έλεγχος», είπε ο Βορόντσοφ. «Για τη Ρωσική Ομοσπονδία, οι προτεραιότητες είναι κάπως διαφορετικές».

Έτσι, ΗΠΑ, Κίνα και Ρωσία υποστηρίζουν ότι η τεχνητή νοημοσύνη και τα αυτόνομα όπλα μπορεί να αποφέρουν οφέλη με τη μείωση των απωλειών αμάχων και της περιττής σωματικής ζημιάς.

«Τα έξυπνα όπλα που χρησιμοποιούν υπολογιστές και αυτόνομες λειτουργίες για την ανάπτυξη δύναμης με μεγαλύτερη ακρίβεια και αποτελεσματικότητα έχει αποδειχθεί ότι μειώνουν τους κινδύνους βλάβης σε πολίτες και πολιτικά αντικείμενα», υποστήριξε η αντιπροσωπεία των ΗΠΑ.

Μάλλον όμως δεν πείθουν οι Αμερικανοί.

Sports in

Η Χιρόνα «καθάρισε» την Μπαρτσελόνα με ανατροπή και έστεψε και μαθηματικά τη Ρεάλ (4-2)

Η Χιρόνα αν και βρισκόταν πίσω στο σκορ στο ημίχρονο, τελικά έκανε την ανατροπή απέναντι στην Μπαρτσελόνα και πήρε το καταλανικό ντέρμπι (4-2).

Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

in.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθύντρια Σύνταξης: Αργυρώ Τσατσούλη

Ιδιοκτησία - Δικαιούχος domain name: ΑΛΤΕΡ ΕΓΚΟ ΜΜΕ Α.Ε.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 800745939, ΔΟΥ: ΦΑΕ ΠΕΙΡΑΙΑ

Ηλεκτρονική διεύθυνση Επικοινωνίας: in@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

ΜΗΤ Αριθμός Πιστοποίησης Μ.Η.Τ.232442

Κυριακή 05 Μαϊου 2024