Αδιάφορο για τον Αδωνι να τον παρακολουθεί το Κράτος με το Predator, αλλά όχι και να τον βιντεοσκοπούν στη Βουλή όταν τρώει κρακεράκια. Ε, ναι αυτό σηκώνει καταγγελία για παραβίαση προσωπικών δεδομένων!
Ο ανθρώπινος παράγοντας και όχι η τεχνητή νοημοσύνη ευθύνεται για την επίθεση στο σχολείο του Ιράν
Παρότι η Τεχνητή Νοημοσύνη έγινε ο Νο1 ύποπτος, μετά την επίθεση στο σχολείο στη Μινάμπ, οι ειδικοί λένε πως δεν είναι σε θέση να κάνει ένα αντίστοιχο λάθος, ρίχνοντας την ευθύνη στο Πεντάγωνο.
Τις ημέρες που ακολούθησαν τη θανατηφόρα πυραυλική επίθεση των ΗΠΑ εναντίον του δημοτικού σχολείου στη Μινάμπ, ο κύριος ύποπτος ήταν η τεχνητή νοημοσύνη, όπως αναφέρει το SEMAFOR.
Οι επικριτές έσπευσαν να αποδώσουν την ευθύνη για τους περισσότερους από 150 θανάτους (σ.σ. 168) στην τεχνητή νοημοσύνη, αφού οι αναφορές σχετικά με τη χρήση του «Claude» στην σύλληψη του Νικολάς Μαδούρο — καθώς και μια δημόσια αντιπαράθεση μεταξύ του Πενταγώνου και της Anthropic — πυροδότησαν μια παγκόσμια συζήτηση για τον αυξανόμενο ρόλο της τεχνολογίας αυτής στις πολεμικές επιχειρήσεις.
Η πραγματικότητα, σύμφωνα με πρώην στρατιωτικούς αξιωματούχους και άτομα που είναι εξοικειωμένα με πτυχές της εκστρατείας βομβαρδισμών στο Ιράν, είναι ότι οι άνθρωποι — οι χιλιάδες άνθρωποι που συλλέγουν πληροφορίες και αναλύουν δορυφορικές φωτογραφίες για να καταρτίσουν λίστες στόχων εν όψει πιθανών συγκρούσεων — φέρουν την ευθύνη για τους θανάτους στο Δημοτικό Σχολείο Shajareh Tayyebeh, το οποίο σκιάζει τον πόλεμο των ΗΠΑ και του Ισραήλ κατά του Ιράν.
Η Τεχνητή Νοημοσύνη δεν θα μπορούσε να κάνει αυτό το λάθος
Το λάθος ήταν ένα λάθος που η τεχνητή νοημοσύνη (Artificial Intelligence) δεν θα ήταν πιθανό να κάνει: οι αμερικανοί αξιωματούχοι δεν αναγνώρισαν τις λεπτές αλλαγές στις δορυφορικές εικόνες, ενώ οι αναλυτές ανθρώπινης πληροφορίας παρέβλεψαν δημόσια διαθέσιμες πληροφορίες σχετικά με ένα σχολείο που βρισκόταν εντός του συγκροτήματος των Φρουρών της Επανάστασης (ή δεν τις πρόσθεσαν στη βάση δεδομένων που χρησιμοποιείται για τον προσδιορισμό στόχων).
Η τεχνητή νοημοσύνη έχει γνωστές αδυναμίες, από παραισθήσεις έως συκοφαντία, αλλά είναι επίσης ικανή να επεξεργάζεται πολύ περισσότερες πληροφορίες από τα τρέχοντα, ανθρωποκεντρικά συστήματα: μια πιο προσεκτική εξέταση των δορυφορικών εικόνων ή, απλά, μια αναζήτηση στο διαδίκτυο θα μπορούσε να είχε αποτρέψει την καταστροφή. Ακόμη και μια σάρωση των καταλόγων ιρανικών επιχειρήσεων έδειξε το σχολείο, σύμφωνα με το Reuters.
«Η εξεύρεση της σωστής ισορροπίας μεταξύ ανθρώπων και μηχανών θα αποτελέσει καθοριστικό στοιχείο της μελλοντικής εκπαίδευσης», δήλωσε ο Τζακ Σανάχαν, ανώτερος ερευνητής στο Κέντρο για τη Νέα Αμερικανική Ασφάλεια και βετεράνος με 36 χρόνια υπηρεσίας στο αμερικανικό στρατό, όπου διετέλεσε ιδρυτικός διευθυντής του Project Maven, του προγράμματος τεχνητής νοημοσύνης του Πενταγώνου.
Που χρησιμοποιείται η τεχνητή νοημοσύνη στον πόλεμο
Η νέα στρατιωτική τεχνολογία επιτρέπει τον εντοπισμό μεγαλύτερου αριθμού στόχων, λειτουργεί δηλαδή ως «γεννήτρια στόχων», με πολύ υψηλότερες ταχύτητες, συνδυάζοντας δορυφορικές εικόνες, ραντάρ, πληροφορίες από ανθρώπινες πηγές και άλλες πηγές δεδομένων.
Ωστόσο, προς το παρόν, η τεχνητή νοημοσύνη έχει σχεδιαστεί κυρίως για να βοηθά τις ένοπλες δυνάμεις στον εντοπισμό άγνωστων ή κινούμενων στόχων, όπως στην περίπτωση του Μαδούρο, σε αντίθεση με στατικούς, ήδη εντοπισμένους στρατιωτικούς στόχους.
Στο Ιράν, το συγκρότημα του Ισλαμικού Επαναστατικού Σώματος Φρουρών Sayyid al-Shuhada στο Minab θα είχε χαρακτηριστεί ως λεγόμενος «σκόπιμος στόχος», επιλεγμένος εκ των προτέρων με τη χρήση πληροφοριών και δορυφορικών εικόνων, σύμφωνα με συνεντεύξεις με πρώην στρατιωτικούς ηγέτες που είναι εξοικειωμένοι με τον τρόπο με τον οποίο οι ΗΠΑ επιλέγουν στόχους σε συγκρούσεις.
Είναι πιθανό το συγκρότημα να είχε προστεθεί σε έναν κατάλογο στόχων που οι ΗΠΑ έχουν καταρτίσει εδώ και δεκαετίες, ο οποίος τηρείται από την Κεντρική Διοίκηση των ΗΠΑ και υπόκειται σε έλεγχο από στρατιωτικούς νομικούς. Εάν ο στόχος είχε αναγνωριστεί ως σχολείο, θα είχε αφαιρεθεί από τον κατάλογο στόχων, ανέφεραν στρατιωτικοί εμπειρογνώμονες.
Δεν έγινε επαρκής έλεγχος νομιμότητας του στόχου
Τις 24 έως 48 ώρες πριν από την επίθεση, οι υπεύθυνοι ελέγχου θα είχαν επίσης εξετάσει τους στόχους για να επιβεβαιώσουν τη νομιμότητά τους.
Αν είχαν παρατηρήσει οποιεσδήποτε ανωμαλίες, σύμφωνα με την καθιερωμένη πρακτική, θα είχαν επισημάνει τον στόχο για περαιτέρω έλεγχο μέσω τεχνολογίας υπολογιστικής όρασης, η οποία μπορεί να αναλύει τις λεπτομέρειες μιας εικόνας pixel προς pixel και να συγκρίνει δορυφορικές εικόνες, αναζητώντας τυχόν αλλαγές. Δεν είναι σαφές αν ζητήθηκε τέτοιος έλεγχος, σύμφωνα με στρατιωτικούς εμπειρογνώμονες.
Υπήρχαν αρκετές δημόσιες πληροφορίες που έδειχναν ένα σχολείο που βρισκόταν στη βάση, καθώς και δορυφορικές εικόνες που αποκάλυπταν ότι είχαν προστεθεί νέοι τοίχοι και μια ξεχωριστή είσοδος. Ωστόσο, χωρίς να συγκρίνουν τις τρέχουσες δορυφορικές φωτογραφίες με παλαιότερες, οι επιθεωρητές με παρωχημένες πληροφορίες δεν είχαν λόγο να αμφιβάλλουν ότι η περιοχή ήταν στρατιωτικός στόχος.
Επιθέσεις «με ένα κλικ» από την Palantir
Η βασική τεχνολογία αυτοματοποίησης του Πενταγώνου για τον προσδιορισμό στόχων είναι το «Maven Smart System» της Palantir, το οποίο επιτρέπει στο στρατιωτικό προσωπικό να σχεδιάζει επιθέσεις με κλικ, σύρσιμο και απόθεση μέσα σε ένα μόνο πρόγραμμα, συμπυκνώνοντας ώρες ή ημέρες εργασίας σε λίγα λεπτά.
Χτισμένο πάνω στη δημοφιλή πλατφόρμα Gotham της Palantir, η οποία χρησιμοποιείται και από διωκτικές/αστυνομικές αρχές και εταιρείες του ιδιωτικού τομέα, αντλεί επίσης δεδομένα από μεγάλα γλωσσικά μοντέλα όπως το Claude της Anthropic, το οποίο σαρώνει και συνοψίζει γρήγορα τα σχετικά έγγραφα.
Το Maven Smart System μπορεί ακόμη και να προτείνει πιθανούς στόχους και να βοηθήσει το προσωπικό να ιεραρχήσει τις προτεραιότητες ως προς τον τρόπο επίθεσης, από το απαιτούμενο καύσιμο έως τα πυρομαχικά που θα χρησιμοποιηθούν. Ένα μενού παραγγελιών στόχων για θανατηφόρες πυραυλικές επιθέσεις, που προτείνει τους στόχους που πιστεύει ότι θα θέλατε να χτυπήσετε, αντί για το φαγητό που πιθανώς λαχταράτε.
Η τεχνητή νοημοσύνη δεν χρησιμοποιείται για την ώρα ως αυτόνομη επιλογή και εξόντωση στόχων
Η Anthropic και άλλες εταιρείες τεχνητής νοημοσύνης έχουν αντιμετωπίσει δημοσίως ανησυχίες ότι ο στρατός θα προσπαθήσει τελικά να δώσει υπερβολική εξουσία σε μεγάλα γλωσσικά μοντέλα, ζητώντας τους να λαμβάνουν αποφάσεις σχετικά με τους στόχους. Ωστόσο, η τεχνολογία απέχει πολύ από αυτή την ικανότητα. Τόσο οι στρατιωτικοί όσο και η Palantir δεν έχουν δείξει καμία πρόθεση να απομακρύνουν εντελώς τους ανθρώπους από την «αλυσίδα θανάτου».
«Υπάρχει ο κίνδυνος να εξαρτηθούμε υπερβολικά από τα αποτελέσματα των μηχανών και να παρακάμψουμε τον κρίσιμο ανθρώπινο έλεγχο», δήλωσε ο Σανάχαν. Για την ιστορία τα μοντέλα τεχνητής νοημοσύνης, επέλεγαν την απειλή ή χρήση πυρηνικών με χαρακτηριστική ευκολία.
Σύμφωνα με άτομα που γνωρίζουν τις φιλοδοξίες της εταιρείας, η Palantir αναμένει ότι ο ρόλος των μεγάλων γλωσσικών μοντέλων θα αποκτήσει μεγαλύτερη σημασία στο μέλλον. Για παράδειγμα, τα μοντέλα θα μπορούσαν να χρησιμοποιηθούν σε μεγαλύτερο βαθμό στη διαδικασία σχεδιασμού στρατιωτικών επιχειρήσεων, προτείνοντας στρατηγικές ή ακόμη και λαμβάνοντας αυτόνομες αποφάσεις στόχευσης.
Ωστόσο, δεν είναι ακόμη ικανά για αυτές τις εργασίες. Η πιο άμεση ανησυχία είναι αν οι ανθρώπινοι ελεγκτές μπορούν να συμβαδίσουν με την τεχνητή νοημοσύνη, καθώς αυτή καταρτίζει περισσότερους στόχους ταχύτερα από ποτέ, ή αν θα υποκύψουν στην πίεση να εγκρίνουν αποφάσεις χωρίς τον απαραίτητο χρόνο για να τις εξετάσουν ως προς τον πιθανό κίνδυνο για τους πολίτες.