Javascript is required

Το Πεντάγωνο χρησιμοποίησε το Claude AI και το Palantir Maven της Anthropic για να εντοπίσει 1.000 στόχους στα χτυπήματα του Ιράν

Γράφει ο Γεώργιος Δικαίος στις 6 Μαρτίου 2026

Share

Pentagon used Anthropic's Claude AI and Palantir Maven to identify 1,000 targets in Iran strikes

ΟΥΑΣΙΝΓΚΤΟΝ, DC — 5 Μαρτίου 2026: Το Υπουργείο Άμυνας των Ηνωμένων Πολιτειών χρησιμοποίησε το μοντέλο τεχνητής νοημοσύνης Claude, που αναπτύχθηκε από την Anthropic, σε συνδυασμό με το Maven Smart System που κατασκευάστηκε από την Palantir Technologies για τον εντοπισμό και την ιεράρχηση στρατιωτικών στόχων κατά την εναρκτήρια φάση των συντονισμένων επιθέσεων των ΗΠΑ και του Ισραήλ σε ιρανικές εγκαταστάσεις στις 28 Φεβρουαρίου 2026, σύμφωνα με ρεπορτάζ της Washington Post.

Τα πλήγματα πραγματοποιήθηκαν ως μέρος μιας κοινής εκστρατείας των Ηνωμένων Πολιτειών και του Ισραήλ με στόχο περισσότερες από 2.000 ιρανικές τοποθεσίες, συμπεριλαμβανομένων βάσεων του Σώματος των Φρουρών της Ισλαμικής Επανάστασης (IRGC), αποθήκες αποθήκευσης πυραύλων, κέντρα διοίκησης και άλλες στρατιωτικές υποδομές. Κατά τη διάρκεια των πρώτων 24 ωρών των επιχειρήσεων, το ολοκληρωμένο σύστημα Claude-Maven παρήγαγε περίπου 1.000 στόχους προτεραιότητας, ο καθένας συνοδευόμενος από λεπτομερή επιχειρησιακά δεδομένα που χρησιμοποιούνται από στρατιωτικούς σχεδιαστές.

Αναγνώριση στόχου με τη βοήθεια AI σε αρχικά χτυπήματα

Σύμφωνα με αξιωματούχους της άμυνας που γνωρίζουν το πρόγραμμα, ο Claude επεξεργαζόταν πολλαπλές ροές πληροφοριών ταυτόχρονα, συμπεριλαμβανομένων δορυφορικών εικόνων, πληροφοριών σημάτων, δεδομένων επιτήρησης και ροών αναγνώρισης. Το μοντέλο ανέλυσε αυτές τις εισόδους για να δημιουργήσει λίστες στόχων που περιελάμβαναν ακριβείς συντεταγμένες GPS, προτεινόμενα οπλικά συστήματα και αυτόματα δημιουργημένες νομικές δικαιολογίες για κάθε πιθανό χτύπημα.

Το αποτέλεσμα παραδόθηκε μέσω του Maven Smart System της Palantir, το οποίο χρησιμεύει ως κεντρική αναλυτική πλατφόρμα που χρησιμοποιείται από τις στρατιωτικές διοικήσεις των ΗΠΑ για επιχειρησιακό σχεδιασμό και ανάλυση πληροφοριών. Η ενσωμάτωση επέτρεψε στους διοικητές να δημιουργήσουν πακέτα στόχων μέσα σε λίγες ώρες αντί για τις ημέρες ή τις εβδομάδες που απαιτούνται συνήθως για τις συμβατικές ροές εργασίας πληροφοριών.

Η επιχείρηση διεξήχθη υπό την εξουσία της στρατιωτικής δομής διοίκησης των ΗΠΑ, συμπεριλαμβανομένης της Κεντρικής Διοίκησης των Ηνωμένων Πολιτειών, η οποία επέβλεψε την περιφερειακή εκστρατεία στην οποία συμμετείχαν περισσότεροι από 50.000 στρατιώτες των ΗΠΑ, περίπου 200 μαχητικά αεροσκάφη και δύο αεροπλανοφόρα που συμμετείχαν στις επιθέσεις.

Εξέλιξη του Project Maven

Η πλατφόρμα Maven προέρχεται από το Project Maven, επίσημα γνωστό ως Algorithmic Warfare Cross-Functional Team, που ξεκίνησε από το Πεντάγωνο το 2017 για να εφαρμόσει μηχανική μάθηση στην ανάλυση βίντεο με drone.

Έκτοτε, το πρόγραμμα εξελίχθηκε στο Maven Smart System της Palantir, το οποίο ενσωματώνει αναλύσεις δεδομένων μεγάλης κλίμακας, μοντέλα μηχανικής μάθησης και εργαλεία επιχειρησιακού σχεδιασμού. Το σύστημα υποστηρίζει πλέον περισσότερους από 25.000 χρήστες σε όλες τις Διοικήσεις Μάχης των ΗΠΑ και χρησιμοποιείται για εργασίες που κυμαίνονται από την επεξεργασία πληροφοριών έως τις επιχειρήσεις στον κυβερνοχώρο και τις στρατιωτικές προσομοιώσεις.

Η Palantir κατέχει πολλαπλά συμβόλαια που σχετίζονται με το Maven και τις σχετικές αμυντικές πλατφόρμες με το Υπουργείο Άμυνας και άλλες υπηρεσίες εθνικής ασφάλειας. Η συνολική αξία αυτών των συμβολαίων μπορεί να ξεπεράσει το 1 δισεκατομμύριο δολάρια, με το ίδιο το Maven Smart System να αναπτύσσεται βάσει συμφωνιών που υπολογίζονται σε σχεδόν 1.3 δισεκατομμύρια δολάρια.

Ενσωμάτωση του Claude σε στρατιωτικά συστήματα

Το Claude AI της Anthropic ενσωματώθηκε στο Maven στα τέλη του 2024 μέσω μιας συνεργασίας που περιλαμβάνει την Palantir και την Amazon Web Services. Η ενσωμάτωση επέτρεψε στο μοντέλο AI να λειτουργεί μέσα σε απόρρητα στρατιωτικά περιβάλλοντα.

Τον Ιούνιο του 2025, η Anthropic παρουσίασε μια κυβερνητική έκδοση του μοντέλου που ονομάζεται Claude Gov, σχεδιασμένη ειδικά για χρήση από υπηρεσίες εθνικής ασφάλειας.

Ο Claude έγινε ένα από τα πρώτα μεγάλης κλίμακας παραγωγικά συστήματα τεχνητής νοημοσύνης που ενσωματώθηκαν σε διαβαθμισμένα αμυντικά δίκτυα, παρέχοντας δυνατότητες όπως ανάλυση πληροφοριών, βοήθεια σχεδιασμού αποστολής και αυτοματοποιημένη προσομοίωση σεναρίων πεδίου μάχης.

Διαμάχη μεταξύ του Πενταγώνου και της Anthropic

Η ανάπτυξη του Claude στις επιχειρήσεις του Ιράν συνέβη εν μέσω μιας συνεχιζόμενης διαμάχης μεταξύ του Πενταγώνου και της Anthropic σχετικά με τις αποδεκτές στρατιωτικές χρήσεις των μοντέλων τεχνητής νοημοσύνης της εταιρείας.

Η Anthropic είχε θεσπίσει περιορισμούς χρήσης που απαγόρευαν στα συστήματά της να υποστηρίζουν μαζική εγχώρια παρακολούθηση πολιτών των ΗΠΑ ή πλήρως αυτόνομα οπλικά συστήματα που λειτουργούν χωρίς ανθρώπινη επίβλεψη. Αξιωματούχοι του Πενταγώνου φέρεται να θεώρησαν αυτούς τους περιορισμούς ως διφορούμενους και υποστήριξαν ότι η διαπραγμάτευση των όρων κάθε περίπτωσης επιχειρησιακής χρήσης θα ήταν ανέφικτη κατά τη διάρκεια ενεργών στρατιωτικών επιχειρήσεων.

Στις 27 Φεβρουαρίου 2026, μία ημέρα πριν από την έναρξη των επιθέσεων στο Ιράν, ο Πρόεδρος Ντόναλντ Τραμπ εξέδωσε εκτελεστικό διάταγμα με το οποίο έδωσε εντολή στις ομοσπονδιακές υπηρεσίες να σταματήσουν τη συνεργασία με την Anthropic, χαρακτηρίζοντας την εταιρεία ως πιθανό «κίνδυνο εφοδιαστικής αλυσίδας».Ρομποτική

Ο χαρακτηρισμός εφαρμόζεται συνήθως σε ξένους αντιπάλους, αλλά χρησιμοποιήθηκε σε αυτήν την περίπτωση μετά από διαφωνίες σχετικά με τους λειτουργικούς περιορισμούς που τέθηκαν στο μοντέλο Claude.

Συνεχής χρήση παρά το εκτελεστικό διάταγμα

Παρά την οδηγία, οι αξιωματούχοι της άμυνας συνέχισαν να χρησιμοποιούν τον Claude κατά τη διάρκεια της εκστρατείας στο Ιράν. Οι αναφορές δείχνουν ότι το σύστημα AI παρέμεινε λειτουργικό σε απόρρητα στρατιωτικά δίκτυα και χρησιμοποιήθηκε μέσα σε λίγες ώρες από την έκδοση της εντολής.

Κατά τη στιγμή της επιχείρησης, ο Claude φέρεται να ήταν το μόνο μοντέλο τεχνητής νοημοσύνης συνοριακής κλίμακας που λειτουργούσε σε ορισμένα διαβαθμισμένα δίκτυα του Πενταγώνου.

Οι στρατιωτικοί σχεδιαστές χρησιμοποίησαν το σύστημα όχι μόνο για την αναγνώριση στόχων αλλά και για τη σύνοψη πληροφοριών και τον σχεδιασμό προσομοίωσης μάχης για να αξιολογήσουν τα πιθανά αποτελέσματα των σεναρίων κρούσης.

Προκλήσεις αντικατάστασης για το Palantir

Μετά το εκτελεστικό διάταγμα, η Palantir άρχισε να προετοιμάζεται να αφαιρέσει τον Claude από το οικοσύστημα Maven και να το αντικαταστήσει με ένα εναλλακτικό μοντέλο AI.

Σύμφωνα με πηγές που επικαλείται το Reuters, η αρχιτεκτονική του συστήματος βασίζεται σε πολυάριθμες προτροπές και ροές εργασίας που έχουν δημιουργηθεί με το πλαίσιο προγραμματιστών Claude Code της Anthropic, πράγμα που σημαίνει ότι η διαδικασία αντικατάστασης θα μπορούσε να απαιτήσει εκτεταμένο επανασχεδιασμό των εσωτερικών στοιχείων.

Οι αναλυτές του κλάδου εκτιμούν ότι η ανακατασκευή των στοιχείων τεχνητής νοημοσύνης και η ενσωμάτωση ενός άλλου μοντέλου θα μπορούσε να διαρκέσει αρκετούς μήνες, επηρεάζοντας ενδεχομένως τις λειτουργικές ροές εργασίας που βασίζονται στο σύστημα.

Ο Διευθύνων Σύμβουλος της Palantir, Alex Karp, σχολίασε ευρέως το θέμα, δηλώνοντας ότι οι περιορισμοί που επιβάλλονται από εταιρείες τεχνολογίας σε κυβερνητικές χρήσεις μπορούν να δημιουργήσουν επιχειρησιακές επιπλοκές για τα αμυντικά προγράμματα.

Το Πεντάγωνο συνάπτει συμβάσεις με πολλούς παρόχους τεχνητής νοημοσύνης

Το Πεντάγωνο βασίζεται όλο και περισσότερο σε εμπορικούς παρόχους τεχνητής νοημοσύνης για προηγμένες αναλυτικές δυνατότητες. Τον Ιούλιο του 2025, το Υπουργείο Άμυνας ανέθεσε συμβάσεις αξίας έως και 200 εκατομμυρίων δολαρίων η καθεμία σε τέσσερις προγραμματιστές τεχνητής νοημοσύνης αιχμής: Anthropic, OpenAI, Google και xAI.

Σύμφωνα με τις συμφωνίες, οι εταιρείες παρείχαν βασική πρόσβαση στα μοντέλα τεχνητής νοημοσύνης τους για αμυντικές εφαρμογές.

Σύμφωνα με αξιωματούχους της άμυνας, η xAI αποδέχτηκε τις κυβερνητικές απαιτήσεις που επιτρέπουν στα μοντέλα της να χρησιμοποιούνται για «όλες τις νόμιμες χρήσεις» σε όλα τα επίπεδα ταξινόμησης, ενώ η OpenAI και η Google διαπραγματεύτηκαν ρυθμίσεις που επικεντρώθηκαν κυρίως σε μη διαβαθμισμένες εργασίες, ενώ συνεχίστηκαν οι συζητήσεις σχετικά με τα διαβαθμισμένα περιβάλλοντα.

Οι περιορισμοί της Anthropic σε ορισμένες στρατιωτικές χρήσεις οδήγησαν στην αντιπαράθεση που κορυφώθηκε με το εκτελεστικό διάταγμα.Πωλήσεις στρατιωτικού εξοπλισμού

Προηγούμενη Επιχειρησιακή Χρήση του Claude

Οι αναφορές δείχνουν ότι ο Claude είχε χρησιμοποιηθεί στο παρελθόν σε διαβαθμισμένα συστήματα σχεδιασμού. Κατά τη διάρκεια μιας επιχείρησης τον Ιανουάριο του 2026 που είχε ως αποτέλεσμα τη σύλληψη του πρώην προέδρου της Βενεζουέλας Νικολάς Μαδούρο, το μοντέλο φέρεται να υποστήριξε τον σχεδιασμό της αποστολής μέσω των ασφαλών αναλυτικών πλατφορμών της Palantir, αν και ο ακριβής ρόλος του συστήματος παραμένει αμφισβητούμενος.

Προτεινόμενο Αυτόνομο Σύστημα Σμήνους Drone

Η Anthropic είχε επίσης επιδιώξει πρόσθετα αμυντικά έργα με το Πεντάγωνο. Τον Ιανουάριο του 2026, η εταιρεία υπέβαλε πρόταση αξίας περίπου 100 εκατομμυρίων δολαρίων για την ανάπτυξη τεχνολογίας αυτόνομου σμήνους drone με φωνητικό έλεγχο.

Η πρόταση περιέγραφε ένα σύστημα στο οποίο ο Claude θα μετέφραζε τη λεκτική πρόθεση ενός διοικητή σε ψηφιακές εντολές για τον συντονισμό ενός στόλου drones ικανών να μοιράζονται πληροφορίες στόχων και να λειτουργούν από τις φάσεις εκτόξευσης έως τον τερματισμό των αποστολών.

Το Πεντάγωνο απέρριψε τελικά την πρόταση.

Ανησυχίες αξιοπιστίας και διαφάνειας

Η αυξανόμενη χρήση μεγάλων γλωσσικών μοντέλων σε στρατιωτικές επιχειρήσεις έχει εγείρει ανησυχίες μεταξύ ερευνητών και αμυντικών αναλυτών σχετικά με την αξιοπιστία και τη διαφάνεια.

Τα μεγάλα γλωσσικά μοντέλα μπορούν να δημιουργήσουν ανακριβείς απαντήσεις, που μερικές φορές περιγράφονται από τους ερευνητές ως «παραισθήσεις», στις οποίες το σύστημα παράγει λανθασμένες πληροφορίες ενώ φαίνεται σίγουρο για την παραγωγή τους.

Οι μελετητές που μελετούν τη στρατιωτική τεχνολογία υποστηρίζουν ότι τέτοια σφάλματα θα μπορούσαν να γίνουν σημαντικά εάν χρησιμοποιηθούν συστήματα τεχνητής νοημοσύνης για την επιτάχυνση της λήψης αποφάσεων στο πεδίο της μάχης.

Η Elke Schwarz, συγγραφέας του Death Machines: The Ethics of Violent Technologies, δήλωσε ότι τα τρωτά σημεία στα συστήματα τεχνητής νοημοσύνης ενδέχεται να εγκυμονούν κινδύνους όταν χρησιμοποιούνται σε ταχέως εξελισσόμενα στρατιωτικά περιβάλλοντα.

Ομοίως, η Mariarosaria Taddeo σημείωσε ότι τα συστήματα μηχανικής μάθησης εξελίσσονται συνεχώς καθώς επεξεργάζονται νέα δεδομένα, γεγονός που περιπλέκει τις διαδικασίες δοκιμών που συνήθως απαιτούνται από το διεθνές ανθρωπιστικό δίκαιο.

Ιστορικό παράδειγμα σφαλμάτων στόχευσης AI

Προηγούμενα εργαλεία στόχευσης με τη βοήθεια τεχνητής νοημοσύνης έχουν δημιουργήσει τεκμηριωμένα ποσοστά σφάλματος. Ένα παλαιότερο σύστημα γνωστό ως Lavender, που φέρεται να χρησιμοποιήθηκε για τον εντοπισμό πιθανών μαχητών κατά τη διάρκεια επιχειρήσεων κατά της Χαμάς στη Γάζα, ανέλυσε μεγάλα σύνολα δεδομένων, συμπεριλαμβανομένων των μοτίβων επικοινωνίας και του ιστορικού τοποθεσίας για να εκχωρήσει βαθμολογίες απειλών.

Οι έρευνες αργότερα έδειξαν ότι το σύστημα είχε εκτιμώμενο ποσοστό σφάλματος 10 τοις εκατό, οδηγώντας σε περιπτώσεις όπου τα άτομα επισημάνθηκαν εσφαλμένα ως στόχοι.

Οι ερευνητές που αναφέρονται στην έκθεση υπολόγισαν ότι περίπου 3.600 άτομα μπορεί να έχουν αναγνωριστεί λανθασμένα από το σύστημα.

Προσκλήσεις για ρυθμιστικά πλαίσια

Οι διεθνείς συζητήσεις για τη ρύθμιση της τεχνητής νοημοσύνης στον πόλεμο βρίσκονται σε εξέλιξη. Η διάσκεψη αναθεώρησης της σύμβασης των Ηνωμένων Εθνών για ορισμένα συμβατικά όπλα, που έχει προγραμματιστεί για τον Νοέμβριο του 2026, αναμένεται να εξετάσει την πρόοδο προς τη θέσπιση κανόνων που διέπουν τα φονικά αυτόνομα οπλικά συστήματα.

Περισσότερες από 120 χώρες υποστηρίζουν τις διαπραγματεύσεις με στόχο τη δημιουργία νέων νομικών μέσων για την αντιμετώπιση της ανάπτυξης της τεχνητής νοημοσύνης στη λήψη στρατιωτικών αποφάσεων.

Οι ειδικοί που υποστηρίζουν τη διαφάνεια υποστήριξαν ότι οι κυβερνήσεις θα πρέπει να αποκαλύπτουν δημόσια τον γενικό ρόλο της τεχνητής νοημοσύνης στις στρατιωτικές επιχειρήσεις και να αναφέρουν πότε τα αυτοματοποιημένα συστήματα συμβάλλουν σε σφάλματα.

Αντίποινα στον κυβερνοχώρο και τις υποδομές

Μετά τα χτυπήματα της 28ης Φεβρουαρίου, αναλυτές που παρακολουθούν τις περιφερειακές εξελίξεις ανέφεραν αντίποινα από το Ιράν, συμπεριλαμβανομένων επιθέσεων με drone σε τρία κέντρα δεδομένων που διαχειρίζεται η Amazon Web Services στις 2 Μαρτίου 2026.

Οι επιθέσεις έκοψαν προσωρινά την παγκόσμια πρόσβαση στο σύστημα Claude της Anthropic για αρκετές ώρες.

Επέκταση του ρόλου της τεχνητής νοημοσύνης στον πόλεμο

Η κλίμακα της εκστρατείας στο Ιράν έδειξε πώς η τεχνητή νοημοσύνη μπορεί να επιταχύνει τους κύκλους στρατιωτικού σχεδιασμού. Αξιωματούχοι της άμυνας ανέφεραν ότι τα συστήματα με τη βοήθεια τεχνητής νοημοσύνης επέτρεψαν τη δημιουργία εκατοντάδων πιθανών στόχων κρούσης μέσα σε λίγες ώρες και όχι εβδομάδες.

Η εκστρατεία φέρεται να είχε ως αποτέλεσμα περισσότερες από 900 ιρανικές απώλειες, συμπεριλαμβανομένου του θανάτου του Ανώτατου Ηγέτη του Ιράν Αλί Χαμενεΐ.

Αξιωματούχοι του Πενταγώνου δήλωσαν ότι περισσότερες λεπτομέρειες σχετικά με τον ρόλο των συστημάτων τεχνητής νοημοσύνης κατά τη διάρκεια της επιχείρησης ενδέχεται να δημοσιοποιηθούν κατά τις επερχόμενες ενημερώσεις από την Κεντρική Διοίκηση των Ηνωμένων Πολιτειών τις επόμενες εβδομάδες.

Αναμένουμε τα σχόλιά σας στο Twitter!


HDN

Share