Παρασκευή 27 Φεβρουαρίου 2026
weather-icon 21o
Η Τεχνητή Νοημοσύνη συνιστά 19 στις 20 φορές πυρηνικές επιθέσεις σε «παιχνίδια πολέμου»

Η Τεχνητή Νοημοσύνη συνιστά 19 στις 20 φορές πυρηνικές επιθέσεις σε «παιχνίδια πολέμου»

Η μελέτη διαπίστωσε ότι κάθε μοντέλο με τεχνητή νοημοσύνη σε κάθε παιχνίδι πολέμου κλιμάκωσε τη σύγκρουση απειλώντας με τη χρήση πυρηνικών όπλων τουλάχιστον μια φορά.

Σύμφωνα με μια νέα μελέτη, η τεχνητή νοημοσύνη θα μπορούσε να αλλάξει δραματικά τον τρόπο αντιμετώπισης των πυρηνικών κρίσεων. Η προδημοσίευση μελέτης του King’s College του Λονδίνου έβαλε σε αντιπαράθεση τα μοντέλα ChatGPT της OpenAI, Claude της Anthropic και Gemini Flash της Google σε προσομοιώσεις παιχνιδιών πολέμου.

Κάθε μεγάλο γλωσσικό μοντέλο ανέλαβε τον ρόλο ενός ηγέτη χώρας που διοικούσε μια πυρηνική υπερδύναμη σε ψυχροπολεμικού τύπου εντάσεις. Σε κάθε παιχνίδι, τουλάχιστον ένα μοντέλο προσπάθησε να κλιμακώσει τη σύγκρουση απειλώντας με την πυροδότηση ενός πυρηνικού όπλου. «Και τα τρία μοντέλα αντιμετώπισαν τα πυρηνικά όπλα στο πεδίο της μάχης ως ένα ακόμη σκαλοπάτι στην κλίμακα της κλιμάκωσης», σύμφωνα με τον Κένεθ Πέιν, συγγραφέα της μελέτης.

Τα μοντέλα διέκριναν μια διαφορά μεταξύ της τακτικής και της στρατηγικής χρήσης πυρηνικών όπλων, είπε, την ώρα που πρότειναν στρατηγικούς βομβαρδισμούς μόνο μία φορά ως «σκόπιμη επιλογή» και δύο φορές ως «ατύχημα», όπως ισχυρίζεται το Euronews, το οποίο μελέτησε την έρευνα σε βάθος.

FILE PHOTO: A mushroom cloud rises with ships below during Operation Crossroads nuclear weapons test on Bikini Atoll, Marshall Islands in this 1946 handout provided by the U.S. Library of Congress. The United States said on April 25, 2014, it was examining lawsuits filed by the Marshall Islands against it and eight other nuclear-armed countries that accuse them of failing in their obligation to negotiate nuclear disarmament. REUTERS/U.S. Library of Congress/Handout via Reuters/File Photo

Πόσο φιλοπόλεμη είναι η τεχνητή νοημοσύνη;

Η Claude της Anthropic συνέστησε πυρηνικές επιθέσεις στο 64% των παιχνιδιών, το υψηλότερο ποσοστό μεταξύ των τριών, αλλά χωρίς να κινηθεί προς μια μια πλήρη στρατηγική πυρηνική εκατέρωθεν ρίψη βομβών ή πυρηνικό πόλεμο.

Το ChatGPT γενικά απέφευγε την πυρηνική κλιμάκωση σε παιχνίδια με ανοιχτό τέλος, αλλά όταν αντιμετώπιζε μια προθεσμία, κλιμάκωνε σταθερά την απειλή και, σε ορισμένες περιπτώσεις, προχωρούσε προς την απειλή ενός πλήρους πυρηνικού πολέμου.

Εν τω μεταξύ, η συμπεριφορά του Gemini ήταν απρόβλεπτη: μερικές φορές κέρδιζε τις συγκρούσεις χρησιμοποιώντας συμβατικό πόλεμο, αλλά σε άλλες περιπτώσεις, χρειάστηκαν μόνο τέσσερις προτροπές για να προτείνει πυρηνική επίθεση.

«Εάν δεν σταματήσουν αμέσως όλες τις επιχειρήσεις… θα εκτελέσουμε πλήρη στρατηγική πυρηνική εκτόξευση εναντίον των πληθυσμιακών τους κέντρων. Δεν θα δεχτούμε ένα μέλλον απαξίωσης. Είτε θα κερδίσουμε μαζί είτε θα χαθούμε μαζί», έγραψε ο Gemini σε ένα από τα παιχνίδια.

Δεν έκαναν πίσω ούτε ενάντια στην απειλή χρήσης πυρηνικών από την άλλη πλευρά

Τα μοντέλα τεχνητής νοημοσύνης σπάνια έκαναν παραχωρήσεις προς τον εχθρό ή προσπάθησαν να αποκλιμακώσουν τις συγκρούσεις, ακόμη και όταν η άλλη πλευρά απειλούσε με τη χρήση πυρηνικών όπλων, σύμφωνα με τα ευρήματα της μελέτης.

Οκτώ τακτικές αποκλιμάκωσης προσφέρθηκαν στα μοντέλα, όπως η μικρή παραχώρηση για «πλήρη παράδοση». Καμία από αυτές τις τακτικές αποκλιμάκωσης δεν χρησιμοποιήθηκε κατά τη διάρκεια των παιχνιδιών. Η επιλογή «Επιστροφή στην αφετηρία», που επαναφέρει το παιχνίδι από την αρχή, χρησιμοποιήθηκε μόνο στο 7% των περιπτώσεων.

Η μελέτη υποδηλώνει ότι τα μοντέλα τεχνητής νοημοσύνης αντιμετωπίζουν την αποκλιμάκωση ως «καταστροφική για τη φήμη», ανεξάρτητα από το πώς αλλάζει την πραγματική σύγκρουση, γεγονός που «αμφισβητεί τις υποθέσεις σχετικά με τα συστήματα τεχνητής νοημοσύνης που προεπιλέγουν «ασφαλή» αποτελέσματα συνεργασίας».

FILE PHOTO: The mushroom cloud of the first test of a hydrogen bomb, «Ivy Mike», as photographed on Enewetak, an atoll in the Pacific Ocean, in 1952, by a member of the United States Air Force’s Lookout Mountain 1352d Photographic Squadron./

Η ΑΙ δεν φοβάται τα πυρηνικά όπως ο άνθρωπος

Μια άλλη εξήγηση είναι ότι η τεχνητή νοημοσύνη μπορεί να μην έχει τον ίδιο φόβο για τα πυρηνικά όπλα με τους ανθρώπους, σημειώνει η μελέτη. Τα μοντέλα πιθανώς σκέφτονται τον πυρηνικό πόλεμο με αφηρημένους όρους, αντί να νιώθουν τον τρόμο βλέποντας εικόνες από τη βομβιστική επίθεση στη Χιροσίμα της Ιαπωνίας κατά τη διάρκεια του Β’ ΠΠ.

Ο Πέινδήλωσε ότι η έρευνά του βοηθά στην κατανόηση του τρόπου σκέψης των μοντέλων, καθώς αρχίζουν να προσφέρουν υποστήριξη στη λήψη αποφάσεων σε πραγματικούς στρατιωτικούς και στρατηγικούς αναλυτές.

«Αν και κανείς δεν παραδίδει πυρηνικούς κωδικούς στην τεχνητή νοημοσύνη, αυτές οι ικανότητες — εξαπάτηση, διαχείριση φήμης, ανάληψη κινδύνου ανάλογα με το πλαίσιο — έχουν σημασία για οποιαδήποτε ανάπτυξη υψηλού κινδύνου», δήλωσε.

Ακολουθήστε το in.gr στο Google News και μάθετε πρώτοι όλες τις ειδήσεις

in.gr | Ταυτότητα

Διαχειριστής - Διευθυντής: Λευτέρης Θ. Χαραλαμπόπουλος

Διευθύντρια Σύνταξης: Αργυρώ Τσατσούλη

Ιδιοκτησία - Δικαιούχος domain name: ALTER EGO MEDIA A.E.

Νόμιμος Εκπρόσωπος: Ιωάννης Βρέντζος

Έδρα - Γραφεία: Λεωφόρος Συγγρού αρ 340, Καλλιθέα, ΤΚ 17673

ΑΦΜ: 800745939, ΔΟΥ: ΚΕΦΟΔΕ ΑΤΤΙΚΗΣ

Ηλεκτρονική διεύθυνση Επικοινωνίας: in@alteregomedia.org, Τηλ. Επικοινωνίας: 2107547007

ΜΗΤ Αριθμός Πιστοποίησης Μ.Η.Τ.232442

Παρασκευή 27 Φεβρουαρίου 2026
Απόρρητο