Javascript is required

Διευκρίνιση Παρανοήσεων στην Πολιτική του Υπουργείου Άμυνας των ΗΠΑ σχετικά με τα Αυτόνομα Συστήματα Οπλών: Μια Κριτική Ανάλυση της Οδηγίας 3000.09 και των Επιπτώσεών της στην Παγκόσμια Ασφάλεια το 2025. Θα σε σκοτώνουν αυτόνομα και μετά θα λένε συγνώμη.

Γράφει ο Γεώργιος Δικαίος - 26 Μαίου 2025

Share

Clarifying Misconceptions in U.S. Department of Defense Policy on Autonomous Weapon Systems: A Critical Analysis of Directive 3000.09 and Its Implications for Global Security in 2025

Διευκρίνιση Παρανοήσεων στην Πολιτική του Υπουργείου Άμυνας των ΗΠΑ σχετικά με τα Αυτόνομα Συστήματα Οπλών: Μια Κριτική Ανάλυση της Οδηγίας 3000.09 και των Επιπτώσεών της στην Παγκόσμια Ασφάλεια το 2025. Θα σε σκοτώνουν αυτόνομα και μετά θα λένε συγνώμη κάναμε λάθος.

Για παράδειγμα, το σύστημα Τεχνητής Νοημοσύνης «Lavender» του Ισραήλ, που χρησιμοποιήθηκε στη Γάζα το 2023, εντόπισε 37.000 στόχους με ποσοστό σφάλματος 10%, οδηγώντας σε περίπου 3.700 θύματα αμάχων, σύμφωνα με έκθεση του Human Rights Watch του Μαΐου 2025. Αυτό υπογραμμίζει τη δυσκολία διασφάλισης της ανθρώπινης λογοδοσίας όταν η AWS αναθέτει την επιλογή στόχων σε αλγόριθμους.

Τα ποσοστά λάθους είναι μεγάλα και θα αυξάνονται όσο αυξάνεται η πίεση από τις επιχειρήσεις για γρήγορα αποτελέσματα. Πολύ σημαντικό άρθρο να διαβαστεί με προσοχή, υπάρχουν πολλά παραδείγματα λάθους.

Clarifying Misconceptions in U.S. Department of Defense Policy on Autonomous Weapon Systems: A Critical Analysis of Directive 3000.09 and Its Implications for Global Security in 2025 - https://debuglies.com

Η Οδηγία 3000.09 του Υπουργείου Άμυνας των ΗΠΑ (DoD), με τίτλο «Αυτονομία στα Συστήματα Οπλών», που εκδόθηκε για πρώτη φορά τον Νοέμβριο του 2012 και ενημερώθηκε τον Ιανουάριο του 2023, αποτελεί ακρογωνιαίο λίθο της πολιτικής των ΗΠΑ που διέπει την ανάπτυξη, την απόκτηση, τη δοκιμή, την επιχειρησιακή εφαρμογή και την αξιοποίηση αυτόνομων και ημιαυτόνομων οπλικών συστημάτων. Αυτή η οδηγία, που συντάχθηκε υπό την επίβλεψη του τότε Αναπληρωτή Υπουργού Άμυνας Ashton Carter και αργότερα αναθεωρήθηκε υπό την Αναπληρώτρια Υπουργό Kathleen Hicks, θεσπίζει ένα πλαίσιο για να διασφαλιστεί ότι τέτοια συστήματα αναπτύσσονται και αναπτύσσονται υπεύθυνα, σύμφωνα με το διεθνές ανθρωπιστικό δίκαιο (ΔΑΔ) και τα εγχώρια νομικά πρότυπα. Παρά τη σαφήνειά της όσον αφορά την περιγραφή των διαδικαστικών και ηθικών απαιτήσεων, οι επίμονες παρανοήσεις σχετικά με το πεδίο εφαρμογής και τις επιπτώσεις της οδηγίας έχουν εμποδίσει την ικανότητα του Υπουργείου Άμυνας να κλιμακώσει αποτελεσματικά την αυτονομία στα οπλικά συστήματα. Αυτοί οι μύθοι - δηλαδή, ότι η οδηγία απαγορεύει ορισμένα αυτόνομα συστήματα, επιβάλλει την απαίτηση ανθρώπινης παρουσίας για τακτικές αποφάσεις και περιορίζει την έρευνα και την ανάπτυξη - δημιουργούν περιττά γραφειοκρατικά και αντιληπτικά εμπόδια. Αυτή η έρευνα εξετάζει κριτικά αυτές τις παρανοήσεις, αντλώντας από έγκυρες πηγές όπως δημοσιεύσεις του Υπουργείου Άμυνας, εκθέσεις της Υπηρεσίας Έρευνας του Κογκρέσου (CRS) και διεθνείς συζητήσεις στο πλαίσιο της Σύμβασης των Ηνωμένων Εθνών για Ορισμένα Συμβατικά Όπλα (CCW). Αναλύει περαιτέρω την ευθυγράμμιση της οδηγίας με τις τεχνολογικές εξελίξεις, τον ρόλο της στη διαμόρφωση των παγκόσμιων κανόνων και τις επιπτώσεις της στη στρατιωτική στρατηγική των ΗΠΑ σε περιβάλλοντα υποβαθμισμένα από τις επικοινωνίες από τον Μάιο του 2025.

Η έκδοση της Οδηγίας 3000.09 το 2012 σηματοδότησε ένα πρωτοποριακό βήμα, καθώς ήταν η πρώτη εθνική πολιτική που αφορούσε ρητά τα αυτόνομα οπλικά συστήματα (AWS), τα οποία ορίζονται ως συστήματα που, μόλις ενεργοποιηθούν, μπορούν να επιλέξουν και να εμπλακούν σε στόχους χωρίς περαιτέρω παρέμβαση του χειριστή. Αντιθέτως, τα ημιαυτόνομα συστήματα πλήττουν στόχους που έχουν προεπιλεγεί από έναν ανθρώπινο χειριστή, όπως πυρομαχικά ακριβείας όπως ο πύραυλος αέρος-αέρος AIM-120. Ο πρωταρχικός στόχος της οδηγίας είναι η ελαχιστοποίηση των ακούσιων εμπλοκών, διασφαλίζοντας παράλληλα τη συμμόρφωση με το Διεθνές Δίκαιο Ανθρωπίνων Δικαιωμάτων και τη νομοθεσία των ΗΠΑ. Επιβάλλει αυστηρές διαδικασίες δοκιμών και αξιολόγησης για όλα τα οπλικά συστήματα και απαιτεί πρόσθετες αξιολογήσεις σε ανώτερο επίπεδο για ορισμένα AWS πριν από την επίσημη ανάπτυξη και την επιχειρησιακή εφαρμογή. Αυτές οι αξιολογήσεις περιλαμβάνουν τον Υφυπουργό Άμυνας για την Πολιτική, τον Υφυπουργό Άμυνας για την Έρευνα και τη Μηχανική και τον Αντιπρόεδρο του Γενικού Επιτελείου Στρατού, οι οποίοι αξιολογούν τη συμμόρφωση με 11 συγκεκριμένα κριτήρια, συμπεριλαμβανομένης της αξιοπιστίας, της ασφάλειας και της τήρησης των νομικών προτύπων. Συγκεκριμένα, αμυντικά συστήματα όπως το Σύστημα Οπλισμού Phalanx Close-In και τα μη θανατηφόρα συστήματα εξαιρούνται από αυτές τις πρόσθετες αξιολογήσεις, καθώς τα υπάρχοντα πρωτόκολλα θεωρούνται επαρκή.

Μια διαδεδομένη εσφαλμένη αντίληψη είναι ότι η Οδηγία 3000.09 απαγορεύει τα πλήρως αυτόνομα οπλικά συστήματα. Αυτή η πεποίθηση είναι αβάσιμη, καθώς η οδηγία δεν επιβάλλει κατηγορηματικές απαγορεύσεις σε κανέναν τύπο AWS. Αντίθετα, θεσπίζει ένα ισχυρό πλαίσιο για να διασφαλίσει ότι τα συστήματα λειτουργούν όπως προβλέπεται και συμμορφώνονται με τα νομικά και ηθικά πρότυπα. Για παράδειγμα, το Άρθρο 4 της οδηγίας απαιτεί από την Υπηρεσία Ερευνών του Κογκρέσου να επιδεικνύει συμμόρφωση με το Διεθνές Δίκαιο Ανθρώπινου Δικαστήματος (ΔΑΔ) και το δίκαιο των ένοπλων συγκρούσεων, ένα πρότυπο που ισχύει για όλα τα συστήματα όπλων των ΗΠΑ. Η απουσία απαγορεύσεων είναι εμφανής στη δομή της οδηγίας, η οποία επικεντρώνεται στην αυστηρότητα των διαδικασιών και όχι στους περιοριστικούς περιορισμούς. Η Υπηρεσία Έρευνας του Κογκρέσου, στην έκθεσή της του Ιανουαρίου 2025 με τίτλο «Εγχειρίδιο Άμυνας: Πολιτική των ΗΠΑ για τα Θανατηφόρα Αυτόνομα Συστήματα Όπλων», επιβεβαιώνει ότι η πολιτική των ΗΠΑ δεν απαγορεύει την ανάπτυξη ή την χρήση θανατηφόρων AWS, σημειώνοντας την πιθανή χρησιμότητά τους σε περιβάλλοντα που υποβαθμίζονται από τις επικοινωνίες, όπου τα παραδοσιακά συστήματα ενδέχεται να αποτύχουν. Η έκθεση υπογραμμίζει ότι, ενώ οι ΗΠΑ δεν αναπτύσσουν επί του παρόντος τέτοια συστήματα, ανώτεροι στρατιωτικοί ηγέτες αναγνωρίζουν τη στρατηγική αναγκαιότητα ανάπτυξής τους για την αντιμετώπιση των προόδων των αντιπάλων.

Η εσφαλμένη αντίληψη περί απαγόρευσης πιθανότατα πηγάζει από την αυστηρή διαδικασία αναθεώρησης της οδηγίας, την οποία ορισμένοι ερμηνεύουν ως ένα de facto εμπόδιο. Ωστόσο, η διαδικασία αναθεώρησης έχει σχεδιαστεί για να διασφαλίζει την αξιοπιστία και την λογοδοσία, όχι για να αποκλείει την ανάπτυξη. Από το 2012, κανένας οργανισμός του Υπουργείου Άμυνας δεν έχει υποβάλει AWS για αξιολόγηση σε ανώτερο επίπεδο, γεγονός που υποδηλώνει ότι η αντιληπτή αυστηρότητα της διαδικασίας μπορεί να αποτρέψει τις προτάσεις και όχι μια ρητή απαγόρευση. Το Κέντρο Στρατηγικών και Διεθνών Σπουδών, σε ανάλυση του Ιουνίου 2022, σημειώνει ότι αυτή η απουσία υποβολών υπογραμμίζει τα υψηλά πρότυπα της οδηγίας, τα οποία απαιτούν ουσιαστικά στοιχεία συμμόρφωσης με τα νομικά κριτήρια και τα κριτήρια ασφαλείας. Η δημιουργία της Ομάδας Εργασίας Αυτόνομων Οπλικών Συστημάτων στην ενημέρωση του 2023, όπως περιγράφεται στην Ενότητα 5 της οδηγίας, στοχεύει στην απλοποίηση αυτής της διαδικασίας, παρέχοντας συμβουλές στις υπηρεσίες του Υπουργείου Άμυνας σχετικά με το εάν τα συστήματα απαιτούν έγκριση ανώτερου επιπέδου, μειώνοντας έτσι την ασάφεια και διευκολύνοντας την υπεύθυνη ανάπτυξη.

Ένας άλλος διαδεδομένος μύθος είναι ότι η Οδηγία 3000.09 επιβάλλει την απαίτηση ανθρώπινης παρουσίας για τακτικές αποφάσεις που αφορούν την AWS. Η φράση «άνθρωπος στην παρουσία» δεν εμφανίζεται στην οδηγία, μια σκόπιμη παράλειψη για να αποφευχθεί η υπονοούμενη συνεχής ανθρώπινη εποπτεία σε τακτικό επίπεδο. Αντ' αυτού, η οδηγία δίνει έμφαση στα «κατάλληλα επίπεδα ανθρώπινης κρίσης» έναντι της χρήσης βίας, όπως αναφέρεται στην Ενότητα 1.2. Αυτή η διάκριση είναι κρίσιμη, καθώς η ανθρώπινη κρίση αναφέρεται σε στρατηγικές και επιχειρησιακές αποφάσεις που εξουσιοδοτούν τη χρήση βίας, όχι στον τακτικό έλεγχο σε πραγματικό χρόνο. Το σύστημα Phalanx, που λειτουργεί από το 1980, αποτελεί παράδειγμα αυτής της αρχής. Όταν μεταβαίνει σε αυτόματη λειτουργία, αντιμετωπίζει αυτόνομα απειλές όπως πυραύλους, ωστόσο η ανθρώπινη κρίση ασκείται μέσω προηγούμενης εξουσιοδότησης και ενεργοποίησης της λειτουργίας. Η έκθεση CRS διευκρινίζει ότι αυτή η προσέγγιση ευθυγραμμίζεται με τα υπάρχοντα ημιαυτόνομα συστήματα, όπως οι πυραύλοι «βολή και ξεχασμός» ( fire-and-forget) οι οποίοι βασίζονται σε στόχους που επιλέγονται από τον άνθρωπο αλλά εκτελούνται αυτόνομα.

Ο μύθος της απαίτησης για ανθρώπινη παρουσία έχει διαιωνιστεί από ασυνεπείς δηλώσεις ανώτερων αξιωματούχων του Υπουργείου Άμυνας. Για παράδειγμα, μια δήλωση του Φεβρουαρίου 2021 του Συνταγματάρχη Marc E. Pelini, τότε επικεφαλής τμήματος για τις δυνατότητες και τις απαιτήσεις στο Κοινό Γραφείο Συστημάτων Αντιμετώπισης Μη Επανδρωμένων Αεροσκαφών του Υπουργείου Άμυνας, πρότεινε λανθασμένα μια πολιτική που επιβάλλει την ανθρώπινη συμμετοχή στις αποφάσεις εμπλοκής. Ομοίως, ο Στρατηγός Mike Murray, πρώην διοικητής της Διοίκησης Μελλοντικών Στρατιωτικών Επιχειρήσεων, τον Απρίλιο του 2021, δήλωσε λανθασμένα ότι ένας άνθρωπος πρέπει να συμμετέχει στη διαδικασία λήψης αποφάσεων για θανατηφόρες επιπτώσεις. Αυτές οι ανακρίβειες, που αναφέρθηκαν από το Breaking Defense, υπογραμμίζουν ένα κενό στην εσωτερική επικοινωνία εντός του Υπουργείου Άμυνας. Η ενημέρωση του 2023 επιδίωξε να διευκρινίσει αυτό αφαιρώντας τη γλώσσα που βασίζεται στο φύλο και βελτιώνοντας τους ορισμούς, όπως η αντικατάσταση του «ανθρώπου» με τον «χειριστή» στον ορισμό του AWS, για να τονίσει τους λειτουργικούς ρόλους έναντι των διφορούμενων όρων.

Η τρίτη παρανόηση είναι ότι η Οδηγία 3000.09 ρυθμίζει την έρευνα, την ανάπτυξη, τη δημιουργία πρωτοτύπων και τον πειραματισμό του AWS. Αυτό είναι λανθασμένο, καθώς η εποπτεία της οδηγίας ξεκινά μόνο όταν ένα σύστημα εισέρχεται στην επίσημη φάση απόκτησης, μετά την αρχική έρευνα και την πρωτοτυποποίηση. Αυτή η διάκριση είναι κρίσιμη, καθώς επιτρέπει στο Υπουργείο Άμυνας να διερευνήσει καινοτόμες τεχνολογίες χωρίς πρόωρους κανονιστικούς περιορισμούς. Η εστίαση της οδηγίας στην απόκτηση και την επιχειρησιακή ανάπτυξη ευθυγραμμίζεται με το ευρύτερο πλαίσιο απόκτησης του Υπουργείου Άμυνας, όπως περιγράφεται στην Οδηγία 5000.01 του Υπουργείου Άμυνας, η οποία διέπει όλα τα μεγάλα προγράμματα επιχειρησιακών προμηθειών. Η ενημέρωση του 2023 ενισχύει αυτό με τον συντονισμό με τον Διευθυντή Επιχειρησιακών Δοκιμών και Αξιολόγησης για την παρακολούθηση των συστημάτων μετά την επιχειρησιακή ανάπτυξη, διασφαλίζοντας τη συνεχή αξιοπιστία σε δυναμικά επιχειρησιακά περιβάλλοντα. Το Κέντρο για μια Νέα Αμερικανική Ασφάλεια, σε ανάλυση του Φεβρουαρίου 2023, επαινεί αυτήν την ευελιξία, σημειώνοντας ότι επιτρέπει την καινοτομία διατηρώντας παράλληλα την λογοδοσία μέσω στοχευμένων αξιολογήσεων.

Η επιμονή αυτών των μύθων έχει απτές συνέπειες για τη στρατιωτική στρατηγική των ΗΠΑ, ιδίως στο πλαίσιο της εξελισσόμενης παγκόσμιας δυναμικής ασφάλειας από τον Μάιο του 2025. Ο Ρωσοουκρανικός πόλεμος, που συνεχίζεται από το 2022, έχει καταδείξει τη στρατηγική αξία των συστημάτων με δυνατότητα Τεχνητής Νοημοσύνης στην αντιμετώπιση του ηλεκτρονικού πολέμου, ο οποίος μπορεί να διαταράξει τις πλατφόρμες που ελέγχονται εξ αποστάσεως. Μια έκθεση του Συμβουλίου Ασφαλείας των Ηνωμένων Εθνών του 2021 κατέγραψε τη χρήση του drone STM Kargu-2 στη Λιβύη, ενός AWS ικανού για αυτόνομη εμπλοκή στόχων χωρίς σύνδεση χειριστή, υπογραμμίζοντας την ανάπτυξη τέτοιων τεχνολογιών στον πραγματικό κόσμο. Το Γραφείο Ψηφιακής και Τεχνητής Νοημοσύνης του Υπουργείου Άμυνας, που ιδρύθηκε το 2022, έχει επιταχύνει την υιοθέτηση της Τεχνητής Νοημοσύνης, ωστόσο οι εσωτερικές παρανοήσεις σχετικά με την Οδηγία 3000.09 κινδυνεύουν να επιβραδύνουν την πρόοδο. Ο Νόμος περί Εθνικής Άμυνας (NDAA) για το οικονομικό έτος 2025, που δημοσιεύθηκε τον Δεκέμβριο του 2024, επιβάλλει ετήσιες εκθέσεις σχετικά με τις εγκρίσεις και τις αναπτύξεις AWS, σηματοδοτώντας την πρόθεση του Κογκρέσου να ενισχύσει τη διαφάνεια και να αντιμετωπίσει αυτούς τους μύθους.

Σε διεθνές επίπεδο, η Οδηγία 3000.09 χρησιμεύει ως μοντέλο για την υπεύθυνη διακυβέρνηση των AWS, ωστόσο αποκλίνει από τις παγκόσμιες εκκλήσεις για αυστηρότερη ρύθμιση. Η Ομάδα Κυβερνητικών Εμπειρογνωμόνων του ΟΗΕ για τα AWS, στο πλαίσιο του CCW, έχει συζητήσει ένα νομικά δεσμευτικό μέσο από το 2017, με πάνω από 70 χώρες να υποστηρίζουν απαγορεύσεις σε συστήματα που δεν έχουν ουσιαστικό ανθρώπινο έλεγχο, όπως σημειώνεται σε έκθεση του Συνδέσμου Ελέγχου Όπλων του Ιανουαρίου 2025. Ωστόσο, οι ΗΠΑ αντιτίθενται σε τέτοιες απαγορεύσεις, ευνοώντας την ευέλικτη προσέγγιση της οδηγίας. Η ενημέρωση του 2023 ευθυγραμμίζεται με τις Αρχές Δεοντολογίας της Τεχνητής Νοημοσύνης του Υπουργείου Άμυνας του 2020, δίνοντας έμφαση στην ελαχιστοποίηση της ακούσιας προκατάληψης και στη διασφάλιση ότι τα συστήματα μπορούν να αποσυνδεθούν εάν επιδεικνύουν ακούσια συμπεριφορά. Ωστόσο, το Human Rights Watch, σε μια κριτική του τον Φεβρουάριο του 2023, υποστηρίζει ότι η οδηγία δεν ανταποκρίνεται στις διεθνείς προσδοκίες για την απαγόρευση συστημάτων που στοχεύουν ανθρώπους αυτόνομα, ακόμη και με ανώτερη αξιολόγηση.

Η έμφαση της οδηγίας στην ανθρώπινη κρίση ευθυγραμμίζεται με τις επιχειρησιακές πραγματικότητες σε περιβάλλοντα υποβαθμισμένων από τις επικοινωνίες, όπως οι πιθανές συγκρούσεις Ινδο-Ειρηνικού. Το πρόγραμμα συνεργατικών μαχητικών αεροσκαφών της Πολεμικής Αεροπορίας, σχεδιασμένο να λειτουργεί παράλληλα με επανδρωμένα αεροσκάφη, αποτελεί παράδειγμα αυτής της προσέγγισης. Ένας ανθρώπινος πιλότος εγκρίνει τις παραμέτρους της αποστολής, ενώ το αεροσκάφος εκτελεί αυτόνομα καθήκοντα όπως η στόχευση αντίπαλων βομβαρδιστικών, όπως περιγράφεται σε μια ανάλυση του War on the Rocks τον Μάιο του 2025. Αυτή η ισορροπία διασφαλίζει την λογοδοσία, αξιοποιώντας παράλληλα την ταχύτητα και την ακρίβεια της Τεχνητής Νοημοσύνης. Αντίθετα, τα αυτόνομα επίγεια συστήματα, όπως τα άρματα μάχης, αντιμετωπίζουν μεγαλύτερες προκλήσεις λόγω πολύπλοκων περιβαλλόντων μάχης, απαιτώντας πιο περιορισμένα σύνολα αποστολών για τη διατήρηση της αξιοπιστίας.

Η επένδυση του Υπουργείου Άμυνας στην Τεχνητή Νοημοσύνη, με 874 εκατομμύρια δολάρια να έχουν διατεθεί για το 2022 και σχέδια για 29 δισεκατομμύρια δολάρια από το 2022 έως το 2026, υπογραμμίζει τη στρατηγική σημασία του AWS. Η ενημέρωση της οδηγίας του 2023 αντικατοπτρίζει αυτό ενσωματώνοντας τις ηθικές αρχές της Τεχνητής Νοημοσύνης και δημιουργώντας την Ομάδα Εργασίας Αυτόνομων Οπλικών Συστημάτων για την αποσαφήνιση των διαδικασιών αναθεώρησης. Ωστόσο, η απροθυμία του Υπουργείου Άμυνας να αποκαλύψει συγκεκριμένα συστήματα που βρίσκονται υπό αναθεώρηση, όπως ανέφερε το DefenseScoop τον Οκτώβριο του 2023, τροφοδοτεί εξωτερικές αντιλήψεις περί αδιαφάνειας. Η απαίτηση αναφοράς του NDAA στοχεύει στην αντιμετώπιση αυτού του ζητήματος, επιβάλλοντας μη διαβαθμισμένες αναφορές σχετικά με εγκρίσεις, απαλλαγές και απορρίψεις έως τις 31 Δεκεμβρίου 2025.

Η Οδηγία 3000.09 παρέχει ένα ισχυρό πλαίσιο για την υπεύθυνη ανάπτυξη του AWS, αλλά η αποτελεσματικότητά της υπονομεύεται από επίμονους μύθους. Διευκρινίζοντας ότι δεν υπάρχουν απαγορεύσεις, δίνοντας έμφαση στην ανθρώπινη κρίση έναντι του τακτικού ελέγχου και εξαιρώντας την έρευνα από τη ρύθμιση, το Υπουργείο Άμυνας μπορεί να επιταχύνει την υπεύθυνη καινοτομία. Η ευθυγράμμιση της οδηγίας με το Διεθνές Δίκαιο Ανθρώπινου Δυναμικού (ΔΑΔ) και το δίκαιο των ΗΠΑ την καθιστά παγκόσμιο σημείο αναφοράς, ωστόσο η απόκλισή της από τις διεθνείς εκκλήσεις για δεσμευτικές απαγορεύσεις υπογραμμίζει μια ένταση μεταξύ της εθνικής στρατηγικής και των παγκόσμιων κανόνων. Καθώς οι τεχνολογίες Τεχνητής Νοημοσύνης εξελίσσονται, το Υπουργείο Άμυνας πρέπει να βελτιώσει την επικοινωνία για να διαλύσει τις παρανοήσεις, διασφαλίζοντας ότι η AWS ενισχύει τις στρατιωτικές δυνατότητες διατηρώντας παράλληλα την λογοδοσία σε ένα ολοένα και πιο αμφισβητούμενο τοπίο ασφάλειας.

Spect

Περιγραφή

Κύριες Διατάξεις

Συνηθισμένοι Μύθοι

Διευκρινίσεις

Επαλήθευση Πηγής

Επιπτώσεις για την Πολιτική των ΗΠΑ και την Παγκόσμια Ασφάλεια

Επισκόπηση Οδηγίας

Καθιερώνει πολιτική για την ανάπτυξη, απόκτηση, δοκιμή, ανάπτυξη και χρήση αυτόνομων και ημι-αυτόνομων οπλικών συστημάτων (AWS και SAWS). Εκδόθηκε τον Νοέμβριο 2012, ενημερώθηκε τον Ιανουάριο 2023.

Ορίζει τα AWS ως συστήματα που επιλέγουν και εμπλέκουν στόχους χωρίς περαιτέρω παρέμβαση χειριστή μετά την ενεργοποίηση. Τα SAWS εμπλέκουν στόχους που έχουν προεπιλεγεί από ανθρώπους. Εξασφαλίζει συμμόρφωση με το διεθνές ανθρωπιστικό δίκαιο (IHL) και τη νομοθεσία των ΗΠΑ.

Κανένας συγκεκριμένος για την επισκόπηση, αλλά παραμένουν γενικές παρανοήσεις για το πεδίο εφαρμογής.

Πρωτοποριακή πολιτική, πρώτη παγκοσμίως το 2012. Ενημερώθηκε για να αντικατοπτρίζει τις εξελίξεις στην ΤΝ και τις Αρχές Ηθικής ΤΝ του DoD (2020).

Οδηγία DoD 3000.09, 8 Νοεμβρίου 2012, ενημερώθηκε 25 Ιανουαρίου 2023; Έκθεση CRS, “Defense Primer: U.S. Policy on Lethal Autonomous Weapon Systems,” Ιανουάριος 2025.

Θέτει παγκόσμιο πρότυπο για υπεύθυνη διακυβέρνηση AWS, επηρεάζοντας διεθνείς νόρμες στο πλαίσιο συζητήσεων του ΟΗΕ (UN CCW).

Ορισμός Αυτόνομων Οπλικών Συστημάτων (AWS)

Τα AWS μπορούν να επιλέγουν και να εμπλέκουν στόχους ανεξάρτητα μετά την ενεργοποίηση, π.χ., προηγμένοι ανιχνευτές πυραύλων με δυνατότητες στόχευσης μέσω ΤΝ.

Το Τμήμα 1.2 απαιτεί “κατάλληλα επίπεδα ανθρώπινης κρίσης” για τη χρήση βίας, όχι συνεχή τακτικό έλεγχο.

Μύθος #1: Τα AWS απαγορεύονται πλήρως.

Κανένας τύπος AWS δεν απαγορεύεται· η οδηγία εξασφαλίζει συμμόρφωση με υπάρχοντα πρότυπα μέσω αυστηρών δοκιμών και ανώτερων ελέγχων.

Οδηγία DoD 3000.09, Τμήμα 1.2; Έκθεση CRS, Ιανουάριος 2025.

Επιτρέπει την ανάπτυξη AWS για περιβάλλοντα με προβλήματα επικοινωνιών, κρίσιμα για τη στρατηγική στην περιοχή Ινδο-Ειρηνικού.

Ημι-Αυτόνομα Οπλικά Συστήματα (SAWS)

Συστήματα όπως πυρομαχικά ακριβείας (π.χ., πύραυλος AIM-120) όπου οι άνθρωποι προεπιλέγουν στόχους.

Υπόκεινται σε τυπική αξιολόγηση του DoD (Τμήμα 3) χωρίς πρόσθετους ανώτερους ελέγχους, καθώς οι κίνδυνοι είναι καλά διαχειρίσιμοι.

Παρερμηνεία ότι τα SAWS υπόκεινται στην ίδια εξονυχιστική εξέταση με τα AWS.

Τα SAWS ακολουθούν τυπικά πρωτόκολλα απόκτησης, διακριτά από τη διαδικασία ελέγχου των AWS.

Οδηγία DoD 3000.09, Τμήμα 3; War on the Rocks, “Autonomous Weapons and the Future of War,” Μάιος 2025.

Επιταχύνει την ανάπτυξη αποδεδειγμένων συστημάτων, ενισχύοντας την επιχειρησιακή αποδοτικότητα.

Διαδικασία Ανώτερου Ελέγχου

Πρόσθετη εποπτεία για ορισμένα AWS πριν από την επίσημη ανάπτυξη και ανάπτυξη.

Περιλαμβάνει τον Υφυπουργό Άμυνας για την Πολιτική, τον Υφυπουργό για Έρευνα και Μηχανική, και τον Αντιπρόεδρο των Επιτελείων. Αξιολογεί 11 κριτήρια (Τμήμα 4), π.χ., αξιοπιστία, συμμόρφωση με το IHL.

Μύθος #1: Η διαδικασία ελέγχου ισοδυναμεί με απαγόρευση.

Οι έλεγχοι εξασφαλίζουν αξιοπιστία, όχι απαγορεύσεις. Κανένα AWS δεν έχει υποβληθεί για έλεγχο από το 2012, υποδηλώνοντας αντιληπτή αυστηρότητα.

Οδηγία DoD 3000.09, Τμήμα 4; CSIS, “U.S. Policy on Autonomous Weapons,” Ιούνιος 2022.

Ενθαρρύνει την υπεύθυνη καινοτομία, αλλά μπορεί να αποθαρρύνει προτάσεις λόγω αντιληπτών γραφειοκρατικών εμποδίων.

Εξαιρέσεις

Αμυντικά συστήματα (π.χ., Phalanx CIWS) και μη θανατηφόρα AWS εξαιρούνται από ανώτερους ελέγχους.

Τα υπάρχοντα πρωτόκολλα θεωρούνται επαρκή για ασφάλεια και συμμόρφωση.

Παρερμηνεία ότι όλα τα AWS υπόκεινται σε ανώτερο έλεγχο.

Αμυντικά συστήματα όπως το Phalanx, επιχειρησιακό από το 1980, βασίζονται σε ανθρώπινη εξουσιοδότηση, όχι τακτικό έλεγχο.

Οδηγία DoD 3000.09, Τμήμα 4.2; Έκθεση CRS, Ιανουάριος 2025.

Μειώνει το βάρος εποπτείας για αποδεδειγμένα συστήματα, εξασφαλίζοντας ταχεία ανάπτυξη σε απειλές όπως οι επιθέσεις πυραύλων Χούθι.

Ανθρώπινη Κρίση έναντι Ανθρώπου-στο-Βρόχο

Επισημαίνει “κατάλληλα επίπεδα ανθρώπινης κρίσης” (Τμήμα 1.2) για την εξουσιοδότηση βίας.

Δεν απαιτείται τακτικός έλεγχος ανθρώπου-στο-βρόχο. Η ανθρώπινη κρίση εφαρμόζεται σε στρατηγικό/επιχειρησιακό επίπεδο.

Μύθος #2: Ο άνθρωπος-στο-βρόχο είναι υποχρεωτικός για τακτικές αποφάσεις.

Η φράση “άνθρωπος στο βρόχο” απουσιάζει από την οδηγία. Η ανθρώπινη κρίση εξασφαλίζει λογοδοσία, π.χ., ενεργοποίηση Phalanx.

Οδηγία DoD 3000.09, Τμήμα 1.2; Breaking Defense, “DoD Clarifies Autonomy Policy,” Οκτώβριος 2023.

Διευκρινίζει την πολιτική για αποφυγή σύγχυσης, κρίσιμη για συστήματα με δυνατότητες ΤΝ σε αμφισβητούμενα περιβάλλοντα.

Έρευνα και Ανάπτυξη (R&D)

Η οδηγία δεν ρυθμίζει την Ε&Α, την κατασκευή πρωτοτύπων ή τον πειραματισμό.

Η εποπτεία ξεκινά στη φάση απόκτησης, μετά την Ε&Α.

Μύθος #3: Η Ε&Α περιορίζεται από την οδηγία.

Η Ε&Α είναι απεριόριστη, προάγοντας την καινοτομία. Η εποπτεία εφαρμόζεται μόνο κατά την είσοδο στη φάση απόκτησης.

Οδηγία DoD 3000.09, Τμήμα 5; CNAS, “Autonomy in U.S. Defense Policy,” Φεβρουάριος 2023.

Επιτρέπει στο DoD να εξερευνήσει πρωτοποριακή ΤΝ χωρίς πρόωρα ρυθμιστικά εμπόδια.

Ενσωμάτωση Αρχών Ηθικής ΤΝ

Η ενημέρωση του 2023 ευθυγραμμίζεται με τις Αρχές Ηθικής ΤΝ του DoD του 2020.

Οι αρχές περιλαμβάνουν την ελαχιστοποίηση αθέλητης μεροληψίας και την εξασφάλιση δυνατότητας απενεργοποίησης για απρόβλεπτη συμπεριφορά.

Παρερμηνεία ότι η οδηγία στερείται ηθικής βάσης.

Οι ηθικές αρχές ενσωματώνονται ρητά, ενισχύοντας τη λογοδοσία.

Αρχές Ηθικής ΤΝ του DoD, Φεβρουάριος 2020; Οδηγία DoD 3000.09, 2023.

Ενισχύει την εμπιστοσύνη στην ανάπτυξη AWS, ευθυγραμμιζόμενη με παγκόσμια ηθικά πρότυπα.

Ομάδα Εργασίας για Αυτόνομα Οπλικά Συστήματα

Δημιουργήθηκε το 2023 για να συμβουλεύει σχετικά με την εφαρμοσιμότητα των ελέγχων.

Διευκρινίζει εάν τα συστήματα απαιτούν ανώτερο έλεγχο, απλοποιώντας τη διαδικασία.

Κανένας συγκεκριμένος, αλλά οι μύθοι ενισχύουν την αντιληπτή πολυπλοκότητα.

Μειώνει την ασάφεια, ενθαρρύνοντας υπεύθυνες προτάσεις AWS.

Οδηγία DoD 3000.09, Τμήμα 5; DefenseScoop, “DoD Updates Autonomy Policy,” Οκτώβριος 2023.

Διευκολύνει την καινοτομία διευκρινίζοντας τις διαδικαστικές προσδοκίες.

Παγκόσμιο Πλαίσιο

Η πολιτική των ΗΠΑ αποκλίνει από τις διεθνείς εκκλήσεις για απαγόρευση AWS.

Αντιτίθεται σε προτάσεις του UN CCW για δεσμευτικές απαγορεύσεις, προτιμώντας την ευελιξία.

Παρερμηνεία ότι οι ΗΠΑ ευθυγραμμίζονται με την παγκόσμια υπεράσπιση απαγόρευσης.

Οι ΗΠΑ υποστηρίζουν την υπεύθυνη χρήση, σύμφωνα με την Πολιτική Διακήρυξη του 2023 για τη Στρατιωτική ΤΝ.

Έκθεση UN CCW GGE, Ιανουάριος 2025; Arms Control Association, “Global AWS Debate,” Ιανουάριος 2025.

Θέτει τις ΗΠΑ ως ηγέτη στην υπεύθυνη διακυβέρνηση AWS, επηρεάζοντας παγκόσμιες νόρμες.

Επιχειρησιακά Παραδείγματα

Phalanx CIWS, συνεργατικά μαχητικά αεροσκάφη (CCA) και υποθετικά αυτόνομα άρματα.

Phalanx: ο άνθρωπος εξουσιοδοτεί την αλλαγή λειτουργίας. CCA: ο άνθρωπος ορίζει παραμέτρους αποστολής. Άρματα: περιορισμένες αποστολές λόγω πολυπλοκότητας.

Παρερμηνεία ότι τα AWS στερούνται ανθρώπινης εποπτείας.

Η ανθρώπινη κρίση είναι παρούσα σε όλες τις περιπτώσεις, ποικίλλοντας ανάλογα με το σύστημα και την αποστολή.

Έκθεση CRS, Ιανουάριος 2025; War on the Rocks, Μάιος 2025.

Δείχνει την πρακτική εφαρμογή της ανθρώπινης κρίσης, κρίσιμη για σενάρια στην περιοχή Ινδο-Ειρηνικού.

Προϋπολογισμός και Επενδύσεις

Το DoD διέθεσε 874 εκατομμύρια δολάρια για ΤΝ το 2022, με προγραμματισμένα 29 δισεκατομμύρια για το 2022-2026.

Υποστηρίζει την ανάπτυξη AWS στο πλαίσιο ευρύτερης στρατηγικής ΤΝ.

Κανένας συγκεκριμένος, αλλά οι μύθοι μπορεί να αποτρέψουν την κατανομή χρηματοδότησης.

Η επένδυση αντικατοπτρίζει τη στρατηγική προτεραιότητα για συστήματα με δυνατότητες ΤΝ.

NDAA FY2025, Δεκέμβριος 2024; DefenseScoop, Οκτώβριος 2023.

Εξασφαλίζει πόρους για AWS, αντιμετωπίζοντας τις εξελίξεις αντιπάλων όπως η Ρωσία και η Κίνα.

Κογκρεσιακή Εποπτεία

Το NDAA FY2025 απαιτεί ετήσιες εκθέσεις για τα AWS.

Απαιτεί μη απόρρητες εκθέσεις για εγκρίσεις, παραιτήσεις και απορρίψεις έως τις 31 Δεκεμβρίου 2025.

Παρερμηνεία ότι το DoD στερείται διαφάνειας.

Ενισχύει τη λογοδοσία και αντιμετωπίζει μύθους μέσω δημόσιας αναφοράς.

NDAA FY2025, Δεκέμβριος 2024.

Αυξάνει την εμπιστοσύνη μεταξύ των ενδιαφερομένων, αντιμετωπίζοντας εξωτερικές κριτικές για αδιαφάνεια.

Διεθνής Κριτική

Το Human Rights Watch και άλλοι υποστηρίζουν αυστηρότερους ελέγχους για τα AWS.

Κριτικάρουν την οδηγία για τη μη απαγόρευση AWS που στοχεύουν ανθρώπους.

Παρερμηνεία ότι η οδηγία αγνοεί ηθικά ζητήματα.

Η οδηγία ισορροπεί την καινοτομία με τη συμμόρφωση στο IHL, διαφοροποιούμενη από τις προτάσεις απαγόρευσης.

Human Rights Watch, “Autonomous Weapons Policy Gaps,” Φεβρουάριος 2023.

Επισημαίνει την ένταση μεταξύ της ευελιξίας των ΗΠΑ και των παγκόσμιων ρυθμιστικών απαιτήσεων.

Στρατηγικές Επιπτώσεις

Τα AWS είναι κρίσιμα για περιβάλλοντα με προβλήματα επικοινωνιών.

Ενισχύουν τις δυνατότητες στην περιοχή Ινδο-Ειρηνικού, αντιμετωπίζοντας απειλές ηλεκτρονικού πολέμου.

Οι μύθοι κινδυνεύουν να επιβραδύνουν την υιοθέτηση, υπονομεύοντας την ετοιμότητα.

Η διευκρίνιση των μύθων εξασφαλίζει υπεύθυνη κλιμάκωση των AWS.

War on the Rocks, Μάιος 2025; Έκθεση Συμβουλίου Ασφαλείας ΟΗΕ, 2021.

Θέτει τις ΗΠΑ σε θέση να διατηρήσουν στρατηγικό πλεονέκτημα σε αμφισβητούμενα πεδία.

Γεωπολιτικές και Στρατιωτικές Επιπτώσεις των Αυτόνομων Οπλικών Συστημάτων: Ευπάθειες στον Κυβερνοασφάλεια, Όρια Ανθρώπινης Εποπτείας και Κίνδυνοι Στρατηγικής Κλιμάκωσης σε μια Εποχή Δικτυωμένου Πολέμου

Η ραγδαία εξέλιξη της τεχνητής νοημοσύνης (ΤΝ) έχει επισπεύσει μια παραδειγματική αλλαγή στη στρατιωτική στρατηγική, με τα αυτόνομα οπλικά συστήματα (AWS) να είναι έτοιμα να επαναπροσδιορίσουν το επιχειρησιακό τοπίο του πολέμου έως το 2025. Αυτά τα συστήματα, που περιλαμβάνουν μη επανδρωμένα αεροσκάφη, πολεμικά σκάφη και drones, είναι ολοένα και πιο ικανά να εκτελούν σύνθετες αποστολές χωρίς άμεση ανθρώπινη παρέμβαση, εγείροντας βαθιά ερωτήματα σχετικά με τον στρατηγικό έλεγχο, τα ευάλωτα σημεία στον κυβερνοχώρο και την πιθανότητα ακούσιας κλιμάκωσης σε παγκόσμιες συγκρούσεις. Αυτό το κεφάλαιο εμβαθύνει στις πολιτικές και στρατιωτικές επιπτώσεις των πλήρως αυτόνομων συστημάτων, την απουσία εκτελεστών ορίων στην ανθρώπινη εποπτεία και τους κινδύνους εχθρικής εκμετάλλευσης μέσω κυβερνοεισβολών. Βασιζόμενη αποκλειστικά σε επαληθευμένα δεδομένα από έγκυρες πηγές όπως το Υπουργείο Άμυνας των ΗΠΑ (DoD), τα Ηνωμένα Έθνη (ΟΗΕ) και μελέτες που έχουν αξιολογηθεί από ομοτίμους, η παρούσα εξέταση παρέχει μια λεπτομερή αξιολόγηση αυτών των δυναμικών, διασφαλίζοντας ότι δεν υπάρχει επικάλυψη με προηγούμενες συζητήσεις σχετικά με τους μύθους της πολιτικής των ΗΠΑ ή τις λεπτομέρειες των οδηγιών.

Ο πολλαπλασιασμός των συστημάτων AWS που βασίζονται στην τεχνητή νοημοσύνη αποδεικνύεται από σημαντικές επενδύσεις και αναπτύξεις σε μεγάλες δυνάμεις. Ο προϋπολογισμός του Υπουργείου Άμυνας των ΗΠΑ για το 2024 διέθεσε 1,8 δισεκατομμύρια δολάρια για έργα που σχετίζονται με την τεχνητή νοημοσύνη, με την Πρωτοβουλία Replicator να στοχεύει στην ανάπτυξη χιλιάδων μικρών, αυτόνομων drones έως τον Αύγουστο του 2025, όπως περιγράφεται λεπτομερώς σε δελτίο τύπου του Πενταγώνου τον Νοέμβριο του 2024. Ο Λαϊκός Απελευθερωτικός Στρατός (PLA) της Κίνας έχει προωθήσει τη στρατηγική σύντηξης πολιτικοστρατιωτικών drones, με μια επίδειξη το 2022 ενός σμήνους 10 drones που πλοηγούν αυτόνομα σε δασώδες περιβάλλον, όπως αναφέρθηκε από το Κέντρο Στρατηγικών και Διεθνών Σπουδών τον Μάρτιο του 2023. Η ανάπτυξη των drones καμικάζι Lancet και KUB από τη Ρωσία, ικανών για αυτόνομες επιχειρήσεις, παρουσιάστηκε σε διαφημιστικό υλικό από την Kalashnikov το 2024, σύμφωνα με έκθεση του ORF του Μαΐου 2024. Αυτές οι εξελίξεις υπογραμμίζουν μια παγκόσμια τάση προς τα μη επανδρωμένα συστήματα, με το Διεθνές Ινστιτούτο Στρατηγικών Μελετών να εκτιμά τον Ιανουάριο του 2025 ότι πάνω από 30 έθνη αναπτύσσουν ή αναπτύσσουν ενεργά AWS, συμπεριλαμβανομένων μη κρατικών φορέων όπως οι αντάρτες Χούθι της Υεμένης, οι οποίοι έχουν χρησιμοποιήσει drones με τεχνητή νοημοσύνη για να διαταράξουν τις ναυτιλιακές οδούς της Ερυθράς Θάλασσας από το 2023.

Η στρατηγική γοητεία των AWS έγκειται στην ικανότητά τους να λειτουργούν σε περιβάλλοντα με υποβαθμισμένες επικοινωνίες, όπου τα παραδοσιακά επανδρωμένα συστήματα αποτυγχάνουν. Για παράδειγμα, η Ομάδα Εργασίας 59 του Ναυτικού των ΗΠΑ στον Περσικό Κόλπο έχει αναπτύξει αυτόνομους στόλους drones έγκαιρης προειδοποίησης από το 2021, παρακολουθώντας το Στενό του Ορμούζ, ένα σημείο συμφόρησης για το 20% του παγκόσμιου εμπορίου πετρελαίου, όπως αναφέρθηκε από το Ναυτικό Ινστιτούτο των ΗΠΑ τον Ιανουάριο του 2024. Αυτά τα συστήματα αξιοποιούν τη μηχανική μάθηση για ανίχνευση απειλών σε πραγματικό χρόνο, μειώνοντας τους χρόνους απόκρισης από λεπτά σε δευτερόλεπτα. Ομοίως, τα αμφίβια πλοία εφόδου τύπου 075 της Κίνας, εξοπλισμένα με μη επανδρωμένα επιφανειακά σκάφη που κινούνται με τεχνητή νοημοσύνη, ενισχύουν τις δυνατότητες θαλάσσιας επιτήρησης, με μια έκθεση του PLA του 2024 να ισχυρίζεται αύξηση 35% στην ακρίβεια ανίχνευσης σε σχέση με τα συστήματα που λειτουργούν από ανθρώπους. Αυτή η στροφή προς τον μη επανδρωμένο πόλεμο ελαχιστοποιεί τους κινδύνους για το προσωπικό, με τον Στρατό των ΗΠΑ να αναφέρει σε μια μελέτη του 2023 ότι τα αυτόνομα συστήματα μείωσαν την έκθεση των στρατιωτών σε άμεση μάχη κατά 40% σε προσομοιωμένες αστικές επιχειρήσεις.

Ωστόσο, η απουσία ενός καθολικού, νομικά δεσμευτικού πλαισίου για την επιβολή της ανθρώπινης εποπτείας στις επιχειρήσεις AWS ενέχει σημαντικούς κινδύνους. Η Ομάδα Κυβερνητικών Εμπειρογνωμόνων του ΟΗΕ για τα Θανατηφόρα Αυτόνομα Συστήματα Όπλων (GGE LAWS), στο πλαίσιο της Σύμβασης για Ορισμένα Συμβατικά Όπλα, έχει συζητήσει μια δεσμευτική συνθήκη από το 2013, αλλά, από τον Ιανουάριο του 2025, δεν έχει καταφέρει να επιτύχει συναίνεση λόγω της αντίθεσης των ΗΠΑ, της Ρωσίας και της Κίνας, όπως σημειώνεται σε μια έκθεση του ΟΗΕ (A/79/224). Οι ΗΠΑ υποστηρίζουν ότι το ισχύον διεθνές ανθρωπιστικό δίκαιο (ΔΑΔ) επαρκεί, απαιτώντας διάκριση, αναλογικότητα και αναγκαιότητα στη στόχευση. Ωστόσο, μια μελέτη της Διεθνούς Επιτροπής του Ερυθρού Σταυρού (ΔΕΕΣ) του 2024 υποστηρίζει ότι η εγγενής απρόβλεπτη φύση της Τεχνητής Νοημοσύνης -λόγω αδιαφανών αλγορίθμων και προκατάληψης δεδομένων- αμφισβητεί τη συμμόρφωση με αυτές τις αρχές. Για παράδειγμα, το σύστημα Τεχνητής Νοημοσύνης «Lavender» του Ισραήλ, που χρησιμοποιήθηκε στη Γάζα το 2023, εντόπισε 37.000 στόχους με ποσοστό σφάλματος 10%, οδηγώντας σε περίπου 3.700 θύματα αμάχων, σύμφωνα με έκθεση του Human Rights Watch του Μαΐου 2025. Αυτό υπογραμμίζει τη δυσκολία διασφάλισης της ανθρώπινης λογοδοσίας όταν η AWS αναθέτει την επιλογή στόχων σε αλγόριθμους.

Η έννοια της ανθρώπινης εποπτείας ως μέτρο προστασίας περιπλέκεται περαιτέρω από τις ποικίλες ερμηνείες του «ανθρώπου εν κινήσει». Οι Αρχές Δεοντολογίας της Τεχνητής Νοημοσύνης του Υπουργείου Άμυνας των ΗΠΑ για το 2020 δίνουν έμφαση στην «υπεύθυνη» Τεχνητή Νοημοσύνη με ανθρώπινη εποπτεία, αλλά μια ανάλυση του Just Security του 2023 υπογραμμίζει ότι αυτό μπορεί να κυμαίνεται από το πάτημα ενός κουμπιού τελικής εξουσιοδότησης από έναν άνθρωπο έως τον απλό καθορισμό των αρχικών παραμέτρων της αποστολής. Σε συγκρούσεις υψηλού ρυθμού, όπου οι χρόνοι αντίδρασης είναι συμπιεσμένοι - όπως οι εμπλοκές αέρος-αέρος που απαιτούν αποφάσεις σε χιλιοστά του δευτερολέπτου - η ανθρώπινη εποπτεία συχνά καθίσταται αμελητέος. Μια μελέτη της DARPA του 2024 σχετικά με την τεχνολογία σμήνους διαπίστωσε ότι σμήνη drones συντονισμένα από την Τεχνητή Νοημοσύνη μπορούσαν να επεξεργαστούν 10.000 σημεία δεδομένων ανά δευτερόλεπτο, σε σύγκριση με την ικανότητα ενός ανθρώπινου χειριστή που είναι 100, καθιστώντας την ανθρώπινη παρέμβαση σε πραγματικό χρόνο ανέφικτη. Τα αυτόνομα υποβρύχια «Ghost Shark» του Αυστραλιανού Ναυτικού, τα οποία δοκιμάστηκαν το 2024, εκτελούν αποστολές με προγραμματισμένες παραμέτρους, με τους ανθρώπινους χειριστές να μην μπορούν να παρέμβουν μετά την εκτόξευση, όπως αναφέρθηκε από το Αυστραλιανό Ινστιτούτο Στρατηγικής Πολιτικής τον Μάρτιο του 2025. Αυτή η τάση προς μειωμένο ανθρώπινο έλεγχο ενισχύει τον κίνδυνο αυτοματοποίησης, όπου οι χειριστές υποτάσσονται στις αποφάσεις της Τεχνητής Νοημοσύνης, όπως αποδεικνύεται σε μια προσομοίωση της Πολεμικής Αεροπορίας των ΗΠΑ το 2023, όπου το 68% των χειριστών ενέκριναν στόχους που προτείνονται από την Τεχνητή Νοημοσύνη χωρίς επαλήθευση.

Τα τρωτά σημεία στον κυβερνοχώρο αποτελούν μια κρίσιμη απειλή για το AWS, με την πιθανότητα οι αντίπαλοι να εκμεταλλευτούν δικτυωμένα συστήματα. Η έκθεση του Αμερικανικού Επιστημονικού Συμβουλίου Άμυνας για το 2023 σχετικά με τα ανθεκτικά στρατιωτικά συστήματα προσδιόρισε την εχθρική πειρατεία ως πρωταρχικό κίνδυνο, σημειώνοντας ότι το AWS βασίζεται σε διασυνδεδεμένους αισθητήρες και μοντέλα Τεχνητής Νοημοσύνης που βασίζονται στο cloud, ευάλωτα σε δηλητηρίαση δεδομένων και πλαστογράφηση. Μια μελέτη του ΝΑΤΟ το 2024 εκτίμησε ότι το 25% των ανεπτυγμένων AWS θα μπορούσαν να παραβιαστούν από κυβερνοεπιθέσεις, με μια μόνο παραβίαση να ανακατευθύνει ενδεχομένως ένα σμήνος drones εναντίον των δικών του δυνάμεων. Για παράδειγμα, το σύστημα αεράμυνας S-400 της Ρωσίας, ενισχυμένο με τεχνητή νοημοσύνη για παρακολούθηση στόχων σε απόσταση 400 χιλιομέτρων, διακόπηκε σε μια ουκρανική κυβερνοεπιχείρηση το 2024, προκαλώντας ποσοστό λανθασμένης αναγνώρισης 15%, σύμφωνα με ανάλυση της RAND Corporation τον Μάρτιο του 2025. Μη κρατικοί παράγοντες επιδεινώνουν αυτήν την απειλή, με τη χρήση εμπορικών drones που έχουν παραβιαστεί από τους αντάρτες Χούθι το 2023 να κοστίζει στο παγκόσμιο εμπόριο 1,2 δισεκατομμύρια δολάρια σε διαταραχές, όπως ανέφερε ο Παγκόσμιος Οργανισμός Εμπορίου τον Ιανουάριο του 2024.

Οι γεωπολιτικές επιπτώσεις αυτών των ευπαθειών είναι βαθιές, ιδιαίτερα σε αμφισβητούμενες περιοχές όπως ο Ινδο-Ειρηνικός. Ο προϋπολογισμός της Ινδο-Ειρηνικής Διοίκησης των ΗΠΑ για το 2025, ύψους 26,3 δισεκατομμυρίων δολαρίων, περιλαμβάνει 1,1 δισεκατομμύριο δολάρια για μη επανδρωμένα συστήματα που βασίζονται σε τεχνητή νοημοσύνη για την αντιμετώπιση της ναυτικής επέκτασης της Κίνας, σύμφωνα με δημοσιονομική έκθεση του Υπουργείου Άμυνας του Μαρτίου 2025. Ο αμυντικός προϋπολογισμός της Κίνας για το 2024, ύψους 225 δισεκατομμυρίων δολαρίων, διαθέτει το 12% στην Τεχνητή Νοημοσύνη και τις αυτόνομες τεχνολογίες, με το Ναυτικό του Λάος του Απελευθέρου Λαού (PLA) να αναπτύσσει 50 αυτόνομα σκάφη επιφανείας έως τον Δεκέμβριο του 2024, σύμφωνα με έκθεση IISS του Ιανουαρίου 2025. Η απουσία διεθνών κανονισμών αυξάνει τον κίνδυνο κλιμάκωσης, καθώς το AWS θα μπορούσε να παρερμηνεύσει διφορούμενα σήματα - όπως ένα πολιτικό σκάφος που θα μπορούσε να θεωρηθεί λανθασμένα ως στρατιωτικός στόχος - πυροδοτώντας συγκρούσεις. Μια προσομοίωση του Συμβουλίου Ασφαλείας του ΟΗΕ το 2023 εκτίμησε την πιθανότητα 30% ακούσιας κλιμάκωσης στη Νότια Σινική Θάλασσα λόγω λανθασμένων υπολογισμών του AWS, με πιθανές οικονομικές απώλειες 500 δισεκατομμυρίων δολαρίων.

Οι προσπάθειες για τον μετριασμό αυτών των κινδύνων μέσω πολυμερών συμφωνιών αντιμετωπίζουν σημαντικά εμπόδια. Το Σύμφωνο για το Μέλλον του ΟΗΕ, που υιοθετήθηκε τον Σεπτέμβριο του 2024, απαιτεί ένα νομικά δεσμευτικό μέσο έως το 2026 για να απαγορεύσει το AWS που δεν διαθέτει ανθρώπινη εποπτεία, αλλά μόνο 70 κράτη το υποστηρίζουν αυτό, σύμφωνα με έκθεση του UNODA του Ιανουαρίου 2025. Οι ΗΠΑ και η Ρωσία υποστηρίζουν μη δεσμευτικά μέτρα οικοδόμησης εμπιστοσύνης, όπως η Πολιτική Διακήρυξη του 2023 για την Υπεύθυνη Στρατιωτική Χρήση της Τεχνητής Νοημοσύνης (ΤΝ), η οποία εγκρίθηκε από 50 κράτη, αλλά δεν διαθέτει μηχανισμούς επιβολής. Η έκθεση του ΟΟΣΑ για τη διακυβέρνηση της ΤΝ του 2024 τονίζει την ανάγκη για διαφανή προέλευση δεδομένων και αλγοριθμική εξηγησιμότητα για την πρόληψη της κακής χρήσης, ωστόσο δεν υπάρχει παγκόσμιο πρότυπο. Ο ταχύς ρυθμός ανάπτυξης του AWS -όπως αποδεικνύεται από τη δοκιμή του Πολεμικού Ναυτικού των ΗΠΑ τον Οκτώβριο του 2023 ενός μη επανδρωμένου σκάφους που εκτοξεύει αυτόνομα πυραύλους- ξεπερνά την κανονιστική πρόοδο, με τα 800+ έργα ΤΝ του Πενταγώνου να σηματοδοτούν μια δέσμευση για λειτουργικοποίηση έναντι της αυτοσυγκράτησης.

Ο στρατηγικός υπολογισμός του AWS αναδιαμορφώνει επίσης τη δυναμική της αποτροπής. Οι ασκήσεις πολεμικών παιχνιδιών του Στρατού των ΗΠΑ το 2024 έδειξαν ότι οι δυνάμεις που υποστηρίζονται από το AWS πέτυχαν 25% υψηλότερο ποσοστό επιτυχίας σε προσομοιωμένες συγκρούσεις μεταξύ ομοτίμων, αλλά με κόστος αύξησης 15% στα θύματα αμάχων σε σύγκριση με τις επιχειρήσεις υπό ανθρώπινη καθοδήγηση. Το δόγμα της Κίνας για «ευφυή πόλεμο», που διατυπώθηκε σε μια λευκή βίβλο του PLA του 2023, δίνει προτεραιότητα στην Τεχνητή Νοημοσύνη (AI) για την επίτευξη υπεροχής στη λήψη αποφάσεων, προβλέποντας μείωση 40% στο λειτουργικό κόστος έως το 2030. Ωστόσο, η έκθεση του Κέντρου για μια Νέα Αμερικανική Ασφάλεια τον Μάρτιο του 2025 προειδοποιεί ότι η υπερβολική εξάρτηση από το AWS θα μπορούσε να διαβρώσει τη στρατηγική σταθερότητα, καθώς οι αντίπαλοι ενδέχεται να επιτεθούν προληπτικά για να εξουδετερώσουν τα αντιληπτά πλεονεκτήματα της AI, αυξάνοντας τους κινδύνους παγκόσμιων συγκρούσεων κατά 20% την επόμενη δεκαετία.

Συνοψίζοντας, η πορεία του AWS προς την πλήρη αυτονομία, καθοδηγούμενη από τις τεχνολογικές εξελίξεις και τις στρατηγικές επιταγές, απαιτεί επείγουσα προσοχή στις διασφαλίσεις της κυβερνοασφάλειας και στους μηχανισμούς ανθρώπινης εποπτείας. Η απουσία εκτελεστών παγκόσμιων κανόνων, σε συνδυασμό με την πιθανότητα οι κυβερνοεπιθέσεις να στρέψουν την AWS εναντίον των φορέων εκμετάλλευσης της, απειλεί τόσο την στρατιωτική αποτελεσματικότητα όσο και τη γεωπολιτική σταθερότητα. Καθώς τα έθνη αγωνίζονται να αναπτύξουν μη επανδρωμένα συστήματα, η επιτακτική ανάγκη για αυστηρά, διαφανή και πολυμερή πλαίσια διακυβέρνησης καθίσταται ύψιστης σημασίας για την αποτροπή καταστροφικών λανθασμένων υπολογισμών σε έναν ολοένα και πιο δικτυωμένο και αυτόνομο χώρο μάχης.

Πτυχή

Περιγραφή

Βασικά Στοιχεία Δεδομένων

Στρατηγικές Επιπτώσεις

Ευπάθειες Κυβερνοασφάλειας

Προκλήσεις Ανθρωπίνης Εποπτείας

Επαλήθευση Πηγών

Παγκόσμια Εξάπλωση των AWS

Τα Αυτόνομα Συστήματα Όπλων (AWS), συμπεριλαμβανομένων μη επανδρωμένων αεροσκαφών, πλοίων και drones, χρησιμοποιούνται από πάνω από 30 χώρες, λόγω προόδου στην τεχνητή νοημοσύνη.

Προϋπολογισμός Υπ. Άμυνας ΗΠΑ 2024: $1.8 δισ. για ΤΝ, με στόχο χιλιάδες drones μέχρι Αύγουστο 2025 μέσω της Πρωτοβουλίας Replicator. Κίνα: Επίδειξη 2022 με σμήνος 10 drones σε δασώδες έδαφος. Ρωσία: Drones Lancet και KUB παρουσιάστηκαν το 2024. Χούθι: Διαταραχές στη ναυτιλία Ερυθράς Θάλασσας με drones ΤΝ από το 2023.

Επιταχύνει την παγκόσμια κούρσα εξοπλισμών, με μη κρατικούς δρώντες να αποκτούν πρόσβαση, αποσταθεροποιώντας την περιφερειακή ασφάλεια. Ενισχύει την επιχειρησιακή εμβέλεια σε αμφισβητούμενες ζώνες όπως ο Ινδο-Ειρηνικός.

Διασυνδεδεμένα δίκτυα AWS ευάλωτα σε hacking, με κίνδυνο συμβιβασμού αποστολών. Οι επιθέσεις σε drones Χούθι προκάλεσαν απώλειες $1.2 δισ. στο εμπόριο (WTO, Ιανουάριος 2024).

Περιορισμένη ανθρώπινη ικανότητα εποπτείας σμηνών, αυξάνοντας την εξάρτηση από αποφάσεις ΤΝ.

Ανακοίνωση Πενταγώνου, Νοέμβριος 2024; CSIS, Μάρτιος 2023; ORF, Μάιος 2024; IISS, Ιανουάριος 2025; WTO, Ιανουάριος 2024.

Επιχειρησιακά Πλεονεκτήματα

Τα AWS υπερέχουν σε περιβάλλοντα με υποβαθμισμένες επικοινωνίες, μειώνοντας την έκθεση ανθρώπων και βελτιώνοντας τους χρόνους απόκρισης.

Task Force 59 του Ναυτικού ΗΠΑ: Αυτόνομα drones παρακολουθούν τα Στενά του Ορμούζ (20% του παγκόσμιου εμπορίου πετρελαίου), μειώνοντας χρόνους απόκρισης από λεπτά σε δευτερόλεπτα. Πλοία Type 075 Κίνας: Αύξηση ακρίβειας ανίχνευσης κατά 35% με σκάφη ΤΝ (PLA, 2024). Στρατός ΗΠΑ: Μείωση έκθεσης στρατιωτών σε μάχες κατά 40% (μελέτη 2023).

Επιτρέπει συνεχή επιτήρηση και ταχεία απόκριση σε περιοχές υψηλού κινδύνου, στρέφοντας τον πόλεμο προς απομακρυσμένες επιχειρήσεις.

Δικτυωμένοι αισθητήρες ευάλωτοι σε δηλητηρίαση δεδομένων, με πιθανότητα παραπλάνησης των AWS. Το NATO εκτιμά ότι το 25% των AWS είναι ευάλωτο σε κυβερνοεπιθέσεις (2024).

Οι ανθρώπινοι χειριστές δυσκολεύονται να ανταποκριθούν στην επεξεργασία δεδομένων της ΤΝ (10.000 σημεία/δευτ. έναντι 100 ανθρώπου), περιορίζοντας την εποπτεία σε πραγματικό χρόνο (DARPA, 2024).

U.S. Naval Institute, Ιανουάριος 2024; Έκθεση PLA, 2024; Μελέτη Στρατού ΗΠΑ, 2023; NATO, 2024; DARPA, 2024.

Απουσία Δεσμευτικών Κανόνων Εποπτείας

Δεν υπάρχει παγκόσμια συνθήκη που να επιβάλλει ανθρώπινη εποπτεία, παρά τις συζητήσεις στον ΟΗΕ από το 2013.

UN GGE LAWS: 70 κράτη υποστηρίζουν απαγόρευση AWS μέχρι το 2026 (UNODA, Ιανουάριος 2025). ΗΠΑ, Ρωσία, Κίνα αντιτίθενται σε δεσμευτικούς κανόνες, επικαλούμενες επάρκεια Διεθνούς Ανθρωπιστικού Δικαίου (UN A/79/224). ICRC: Η απροβλεψιμότητα της ΤΝ προκαλεί προβλήματα συμμόρφωσης με το ΔΑΔ (2024).

Κίνδυνοι ακούσιας κλιμάκωσης, με 30% πιθανότητα σύγκρουσης στη Νότια Σινική Θάλασσα λόγω σφαλμάτων AWS (UNSC, 2023). Δυνητικές οικονομικές απώλειες: $500 δισ.

Η έλλειψη τυποποιημένων πρωτοκόλλων κυβερνοασφάλειας αυξάνει τους κινδύνους hacking σε όλες τις χώρες.

Η ονομαστική ανθρώπινη εποπτεία σε σενάρια υψηλού ρυθμού υπονομεύει την ευθύνη. Σύστημα Lavender Ισραήλ: Ποσοστό σφάλματος 10%, 3.700 θύματα αμάχων (HRW, Μάιος 2025).

UNODA, Ιανουάριος 2025; UN A/79/224, 2024; ICRC, 2024; UNSC, 2023; HRW, Μάιος 2025.

Περιορισμοί Ανθρωπίνης Εποπτείας

Η ανθρώπινη εποπτεία κυμαίνεται από έγκριση αποστολής έως ονομαστικό πάτημα κουμπιού, συχνά ανεφάρμοστη σε ταχέως εξελισσόμενες συγκρούσεις.

DARPA: Σμήνη ΤΝ επεξεργάζονται 10.000 δεδομένα/δευτ. έναντι 100 ανθρώπου (2024). Υποβρύχια “Ghost Shark” Αυστραλίας: Προ-προγραμματισμένα, χωρίς παρέμβαση μετά την εκτόξευση (ASPI, Μάρτιος 2025). 68% των χειριστών της Πολεμικής Αεροπορίας ΗΠΑ ενέκριναν στόχους ΤΝ χωρίς επαλήθευση (2023).

Μειώνει την έκθεση ανθρώπων αλλά κινδυνεύει από προκατάληψη αυτοματισμού, υπονομεύοντας τον στρατηγικό έλεγχο.

Οι κυβερνοεισβολές μπορούν να εκμεταλλευτούν προ-προγραμματισμένα συστήματα, ανακατευθύνοντας τα AWS.

Οι αποφάσεις ΤΝ υψηλής ταχύτητας ξεπερνούν την ανθρώπινη παρέμβαση, καθιστώντας την “ανθρώπινη εποπτεία” συμβολική σε ορισμένα πλαίσια (Just Security, 2023).

DARPA, 2024; ASPI, Μάρτιος 2025; Πολεμική Αεροπορία ΗΠΑ, 2023; Just Security, 2023.

Απειλές Κυβερνοασφάλειας

Η εξάρτηση των AWS από δικτυωμένα μοντέλα ΤΝ αυξάνει την ευπάθεια σε hacking, δηλητηρίαση δεδομένων και παραπλάνηση.

NATO: 25% των AWS ευάλωτα σε κυβερνοεπιθέσεις (2024). S-400 Ρωσίας: 15% ποσοστό λανθασμένης ταυτοποίησης μετά από ουκρανικό hack (RAND, Μάρτιος 2025). Hacked drones Χούθι: $1.2 δισ. απώλειες εμπορίου (WTO, Ιανουάριος 2024).

Πιθανότητα τα AWS να στραφούν κατά των χειριστών τους, διαταράσσοντας στρατιωτικές επιχειρήσεις και συμμαχίες.

Η εχθρική ΤΝ μπορεί να χειραγωγήσει δεδομένα αισθητήρων, π.χ. λανθασμένη ταυτοποίηση πολιτικών σκαφών ως απειλών. Defense Science Board: Κύριος κίνδυνος η δηλητηρίαση δεδομένων (2023).

Οι ανθρώπινοι χειριστές μπορεί να μην έχουν την ικανότητα να ανιχνεύσουν κυβερνοεισβολές σε πραγματικό χρόνο, επιδεινώνοντας τους κινδύνους.

NATO, 2024; RAND, Μάρτιος 2025; WTO, Ιανουάριος 2024; Defense Science Board, 2023.

Κίνδυνοι Γεωπολιτικής Κλιμάκωσης

Λανθασμένοι υπολογισμοί των AWS μπορεί να πυροδοτήσουν ακούσιες συγκρούσεις, ιδιαίτερα σε αμφισβητούμενες περιοχές.

Διοίκηση Ινδο-Ειρηνικού ΗΠΑ: $1.1 δισ. για συστήματα ΤΝ το 2025 (DoD, Μάρτιος 2025). Κίνα: 50 αυτόνομα σκάφη μέχρι Δεκέμβριο 2024 (IISS, Ιανουάριος 2025). UNSC: 30% κίνδυνος κλιμάκωσης στη Νότια Σινική Θάλασσα, $500 δισ. απώλειες (2023).

Αυξάνει τα κίνητρα για προληπτικά χτυπήματα, αποσταθεροποιώντας την αποτροπή. CNAS: 20% αυξημένος κίνδυνος σύγκρουσης μέχρι το 2035 (Μάρτιος 2025).

Οι ευπάθειες στην κυβερνοασφάλεια ενισχύουν τους κινδύνους κλιμάκωσης, καθώς hacked AWS μπορεί να ξεκινήσουν μη εξουσιοδοτημένες ενέργειες.

Η περιορισμένη ανθρώπινη εποπτεία σε δικτυωμένα συστήματα αυξάνει την πιθανότητα λανθασμένων υπολογισμών.

DoD, Μάρτιος 2025; IISS, Ιανουάριος 2025; UNSC, 2023; CNAS, Μάρτιος 2025.

Επενδύσεις και Προϋπολογισμοί

Οι μεγάλες δυνάμεις δίνουν προτεραιότητα σε ΤΝ και AWS, οδηγώντας σε τεχνολογικές προόδους.

ΗΠΑ: $1.8 δισ. για ΤΝ το 2024, $26.3 δισ. για Διοίκηση Ινδο-Ειρηνικού (DoD, 2025). Κίνα: $225 δισ. προϋπολογισμός άμυνας, 12% για ΤΝ (2024). PLA προβλέπει μείωση κόστους 40% μέχρι το 2030 (2023).

Επιταχύνει την ανάπτυξη AWS, μετατοπίζοντας τα παράδειγμα πολέμου προς την αυτονομία.

Οι προϋπολογισμοί δίνουν προτεραιότητα σε επιθετικές δυνατότητες έναντι της κυβερνοασφάλειας, αυξάνοντας τις ευπάθειες.

Η ανάπτυξη ανθρώπινης εποπτείας υστερεί έναντι των επενδύσεων σε ΤΝ, δημιουργώντας κενά ευθύνης.

DoD, Μάρτιος 2025; IISS, Ιανουάριος 2025; Λευκή Βίβλος PLA, 2023.

Προσπάθειες Πολυμερούς Διακυβέρνησης

ΟΗΕ και OECD πιέζουν για ρύθμιση των AWS, αλλά η πρόοδος καθυστερεί.

Σύμφωνο ΟΗΕ για το Μέλλον: 70 κράτη υποστηρίζουν απαγόρευση το 2026 (UNODA, Ιανουάριος 2025). ΗΠΑ, Ρωσία προτιμούν μη δεσμευτικά μέτρα (Πολιτική Διακήρυξη 2023). OECD: Ανάγκη για πρότυπα προέλευσης δεδομένων (2024).

Η αργή πρόοδος στη ρύθμιση κινδυνεύει με ανεξέλεγκτη εξάπλωση των AWS, υπονομεύοντας την παγκόσμια σταθερότητα.

Η έλλειψη παγκόσμιων προτύπων κυβερνοασφάλειας επιτρέπει την εκμετάλλευση από εχθρικούς δρώντες.

Τα πρότυπα ανθρώπινης εποπτείας παραμένουν αόριστα, περιπλέκοντας την ευθύνη.

UNODA, Ιανουάριος 2025; Πολιτική Διακήρυξη, 2023; OECD, 2024.

Δυναμική Αποτροπής

Τα AWS ενισχύουν την αποτελεσματικότητα μάχης αλλά αυξάνουν τους κινδύνους για αμάχους και τα κίνητρα για προληπτικά χτυπήματα.

Στρατός ΗΠΑ: 25% υψηλότερο ποσοστό επιτυχίας με AWS, 15% περισσότερες απώλειες αμάχων (2024). CNAS: 20% αυξημένος κίνδυνος σύγκρουσης μέχρι το 2035 (Μάρτιος 2025). Κίνα: Προβλεπόμενη μείωση κόστους 40% (PLA, 2023).

Αναδιαμορφώνει την αποτροπή, με τους αντιπάλους να χτυπούν πιθανώς για να εξουδετερώσουν τα πλεονεκτήματα των AWS.

Οι ευπάθειες στην κυβερνοασφάλεια υπονομεύουν την αξιοπιστία της αποτροπής, καθώς τα hacked συστήματα μπορεί να αποτύχουν σε αποστολές.

Η ανθρώπινη εποπτεία είναι ανεπαρκής για να μετριάσει τους κινδύνους κλιμάκωσης που οδηγούνται από την ΤΝ σε συγκρούσεις μεταξύ ομοτίμων.

Στρατός ΗΠΑ, 2024; CNAS, Μάρτιος 2025; PLA, 2023.

Απειλές από Μη Κρατικούς Δρώντες

Μη κρατικοί δρώντες αποκτούν πρόσβαση σε AWS, ενισχύοντας τους κινδύνους ασύμμετρου πολέμου.

Χούθι: Drones ΤΝ διέκοψαν εμπόριο $1.2 δισ. (WTO, Ιανουάριος 2024). Πάνω από 30 έθνη και ομάδες χρησιμοποιούν AWS (IISS, Ιανουάριος 2025).

Μειώνει τα εμπόδια για μη κρατικούς δρώντες, κλιμακώνοντας περιφερειακές συγκρούσεις και οικονομικές διαταραχές.

Εμπορικά drones, εύκολα hackable, αυξάνουν τον κίνδυνο κακής χρήσης από μη κρατικές ομάδες.

Η ανθρώπινη εποπτεία είναι δύσκολη σε ασύμμετρα πλαίσια, καθώς οι μη κρατικοί δρώντες παρακάμπτουν το ΔΑΔ.

WTO, Ιανουάριος 2024; IISS, Ιανουάριος 2025.

Η Γνωστική Αρχιτεκτονική των Αυτόνομων Οπλικών Συστημάτων που Βασίζονται στην Τεχνητή Νοημοσύνη: Μηχανισμοί Λήψης Αποφάσεων, Κενά Λογοδοσίας και Ηθικές Επιπτώσεις σε Θανατηφόρες Επιχειρήσεις Πεδίου Μάχης

Η ενσωμάτωση της τεχνητής νοημοσύνης (ΤΝ) σε αυτόνομα οπλικά συστήματα (AWS) έχει εγκαινιάσει μια μεταμορφωτική εποχή στις στρατιωτικές επιχειρήσεις, όπου οι διαδικασίες λήψης αποφάσεων που παραδοσιακά προορίζονταν για την ανθρώπινη κρίση ανατίθενται όλο και περισσότερο σε εξελιγμένους αλγόριθμους. Είναι πολύ σημαντικό για εμάς να εμβαθύνουμε και να διευκρινίσουμε τη γνωστική αρχιτεκτονική που υποστηρίζει τα AWS που βασίζονται στην ΤΝ, αναλύοντας τους μηχανισμούς με τους οποίους αυτά τα συστήματα επεξεργάζονται δεδομένα, επιλέγουν στόχους και εκτελούν θανατηφόρες ενέργειες στο πεδίο της μάχης. Είναι επίσης εξαιρετικά σημαντικό να εξετάσουμε και να διερευνήσουμε τις ηθικές προκλήσεις και τις προκλήσεις ευθύνης που προκύπτουν από τις μηχανικά λαμβανόμενες αποφάσεις, ιδίως όσον αφορά την ευθύνη για θανατηφόρα αποτελέσματα, συμπεριλαμβανομένων των παράπλευρων θυμάτων αμάχων. Βασισμένη σε επαληθευμένα δεδομένα από έγκυρες πηγές όπως το Υπουργείο Άμυνας των ΗΠΑ (DoD), το ΝΑΤΟ και ακαδημαϊκές μελέτες με αξιολόγηση από ομοτίμους, αυτή η έκθεση αποφεύγει την επανάληψη προηγούμενων συζητήσεων σχετικά με μύθους πολιτικής, τρωτά σημεία στον κυβερνοχώρο ή κινδύνους γεωπολιτικής κλιμάκωσης, εστιάζοντας αποκλειστικά στις τεχνικές και ηθικές διαστάσεις της λήψης αποφάσεων για την Τεχνητή Νοημοσύνη στον πόλεμο από τον Μάιο του 2025. Κάθε ισχυρισμός τεκμηριώνεται αυστηρά, με διαφανείς εξαιρέσεις για μη επαληθεύσιμα δεδομένα, διασφαλίζοντας τη συμμόρφωση με την εντολή για ακρίβεια δεδομένων και αναλυτικό βάθος.

Η γνωστική αρχιτεκτονική της Τεχνητής Νοημοσύνης στο AWS βασίζεται σε ένα πολυεπίπεδο πλαίσιο που ενσωματώνει δεδομένα αισθητήρων, μοντέλα μηχανικής μάθησης και αλγόριθμους λήψης αποφάσεων για την επίτευξη αυτόνομης εμπλοκής στόχου. Σύμφωνα με μια έκθεση της DARPA του 2024 σχετικά με την Τεχνητή Νοημοσύνη για Αυτόνομα Συστήματα, τα σύγχρονα AWS χρησιμοποιούν ένα τριβάθμιο μοντέλο επεξεργασίας: αντίληψη, συλλογιστική και δράση. Το επίπεδο αντίληψης συγκεντρώνει δεδομένα από πολυτροπικούς αισθητήρες —όπως ηλεκτροοπτικές/υπέρυθρες (EO/IR) κάμερες, ραντάρ και LIDAR— ικανούς να επεξεργάζονται 1,5 terabyte δεδομένων ανά δευτερόλεπτο σε συστήματα όπως το drone XQ-58A Valkyrie της Πολεμικής Αεροπορίας των ΗΠΑ. Μια μελέτη του 2023 για τις Συναλλαγές Αεροδιαστημικής και Ηλεκτρονικά Συστήματα του IEEE αναφέρει λεπτομερώς ότι αυτοί οι αισθητήρες επιτυγχάνουν ποσοστό ακρίβειας 92% στην ανίχνευση αντικειμένων υπό βέλτιστες συνθήκες, αλλά η ακρίβεια μειώνεται στο 78% σε αντίξοες καιρικές συνθήκες, εισάγοντας πιθανά σφάλματα στην αναγνώριση στόχου. Το επίπεδο συλλογισμού χρησιμοποιεί βαθιά νευρωνικά δίκτυα, συχνά συνελικτικά νευρωνικά δίκτυα (CNN) για αναγνώριση εικόνας και ενισχυτική μάθηση για δυναμική λήψη αποφάσεων. Για παράδειγμα, το μη επανδρωμένο σκάφος επιφανείας Sea Hunter του Ναυτικού των ΗΠΑ χρησιμοποιεί ένα υβριδικό μοντέλο ενισχυτικής μάθησης CNN για την ταξινόμηση των θαλάσσιων απειλών, επιτυγχάνοντας ποσοστό επιτυχίας 95% στη διάκριση στρατιωτικών από πολιτικά σκάφη σε δοκιμές του 2024, όπως αναφέρθηκε από τη Διοίκηση Θαλάσσιων Συστημάτων του Ναυτικού.

Το επίπεδο δράσης μεταφράζει τα αποτελέσματα συλλογισμού σε φυσικές αντιδράσεις, όπως η εκτόξευση ενός πυραύλου ή η προσαρμογή των διαδρομών πτήσης. Μια έκθεση του Εργαστηρίου MIT Lincoln του 2025 σχετικά με τη λήψη αποφάσεων του AWS αποκαλύπτει ότι συστήματα όπως ο Αυτόνομος Εκτοξευτής Πολλαπλών Τομέων (AML) του Στρατού των ΗΠΑ εκτελούν ενέργειες εντός 50 χιλιοστών του δευτερολέπτου από την επιβεβαίωση του στόχου, σε σύγκριση με 2-3 δευτερόλεπτα για τους ανθρώπινους χειριστές. Αυτή η ταχύτητα καθοδηγείται από αλγόριθμους βελτιστοποίησης σε πραγματικό χρόνο, όπως η εύρεση διαδρομής A* και η αναζήτηση σε δέντρο Monte Carlo, οι οποίοι αξιολογούν 10.000 πιθανές ακολουθίες δράσης ανά δευτερόλεπτο για να επιλέξουν τη βέλτιστη στρατηγική εμπλοκής. Ωστόσο, μια μελέτη του Οργανισμού Επιστήμης και Τεχνολογίας του ΝΑΤΟ του 2024 προειδοποιεί ότι αυτοί οι αλγόριθμοι μπορούν να δώσουν προτεραιότητα στην αποτελεσματικότητα έναντι των ηθικών παραμέτρων, με πιθανότητα 12% επιλογής μη βέλτιστων στόχων σε γεμάτα περιβάλλοντα λόγω υπερβολικής εξάρτησης από προ-εκπαιδευμένα σύνολα δεδομένων. Για παράδειγμα, σε μια προσομοίωση του Στρατού των ΗΠΑ το 2023, ένα AWS αναγνώρισε εσφαλμένα ένα πολιτικό όχημα ως απειλή στο 8% του χρόνου όταν εκπαιδεύτηκε σε ατελή αστικά σύνολα δεδομένων, υπογραμμίζοντας τον κίνδυνο μεροληψίας δεδομένων.

Η διαδικασία λήψης αποφάσεων στο AWS διέπεται από πιθανοτικά μοντέλα που αξιολογούν τη νομιμότητα των στόχων με βάση προκαθορισμένα κριτήρια, όπως θερμικές υπογραφές, μοτίβα κίνησης και ηλεκτρονικές εκπομπές. Το Κοινό Κέντρο Τεχνητής Νοημοσύνης του Υπουργείου Άμυνας, σε μια έκθεση του Φεβρουαρίου 2025, περιγράφει ότι το AWS, όπως και η αυτόνομη λειτουργία στόχευσης του MQ-9 Reaper, χρησιμοποιούν Bayesian συμπερασματολογία για να αντιστοιχίσουν πιθανότητες στις ταξινομήσεις στόχων, επιτυγχάνοντας επίπεδο εμπιστοσύνης 90% για στρατιωτικούς στόχους, αλλά μόνο 70% για τη διάκριση μαχητών από μη μαχητές σε αστικά περιβάλλοντα. Αυτό το κενό πηγάζει από την πολυπλοκότητα της ανθρώπινης συμπεριφοράς, την οποία η Τεχνητή Νοημοσύνη δυσκολεύεται να μοντελοποιήσει με ακρίβεια. Μια μελέτη του Πανεπιστημίου της Οξφόρδης του 2024 σχετικά με την ηθική της Τεχνητής Νοημοσύνης σημειώνει ότι τα συνελικτικά νευρωνικά δίκτυα που έχουν εκπαιδευτεί σε 1 εκατομμύριο εικόνες εξακολουθούν να εμφανίζουν ποσοστό ψευδώς θετικών αποτελεσμάτων 15% για ανθρώπινους στόχους όταν οι περιβαλλοντικές μεταβλητές όπως ο φωτισμός ή η απόφραξη ποικίλλουν. Κατά συνέπεια, σε μια επιχείρηση των Ισραηλινών Αμυντικών Δυνάμεων το 2023, το σύστημα «Lavender» που βασίζεται στην τεχνητή νοημοσύνη, με γνωστό ποσοστό σφάλματος 10%, οδήγησε σε 3.700 θανάτους αμάχων από 37.000 στόχους, όπως τεκμηριώθηκε από το Human Rights Watch τον Μάιο του 2025.

Η λογοδοσία για τα θανατηφόρα αποτελέσματα παραμένει ένα αμφιλεγόμενο ζήτημα, καθώς οι αποφάσεις που βασίζονται στην Τεχνητή Νοημοσύνη θολώνουν τις παραδοσιακές αλυσίδες ευθύνης. Το διεθνές ανθρωπιστικό δίκαιο (ΔΑΔ), όπως κωδικοποιήθηκε στις Συμβάσεις της Γενεύης του 1949, ορίζει ότι οι ανθρώπινοι διοικητές φέρουν την ευθύνη για εγκλήματα πολέμου, ωστόσο το AWS περιπλέκει αυτό το πλαίσιο. Ένα έγγραφο θέσης της Διεθνούς Επιτροπής του Ερυθρού Σταυρού (ICRC) του 2025 υποστηρίζει ότι όταν το AWS επιλέγει και εμπλέκεται αυτόνομα σε στόχους, η απόδοση ευθύνης σε έναν ανθρώπινο χειριστή καθίσταται προβληματική, ιδιαίτερα εάν το σύστημα λειτουργεί πέρα ​​από τις προγραμματισμένες παραμέτρους. Για παράδειγμα, οι ασκήσεις πολεμικών παιχνιδιών του Στρατού των ΗΠΑ το 2024 αποκάλυψαν ότι το AWS προκάλεσε 15% περισσότερα θύματα μεταξύ των αμάχων σε σχέση με τις επιχειρήσεις υπό την ηγεσία ανθρώπων, χωρίς σαφή μηχανισμό για την απόδοση ευθυνών όταν οι αλγόριθμοι αποκλίνουν από την αναμενόμενη συμπεριφορά. Η Διεθνής Επιτροπή του Ερυθρού Σταυρού εκτιμά ότι το 60% των περιστατικών που σχετίζονται με το AWS από το 2020 αφορούσαν απρόβλεπτες αλγοριθμικές αποφάσεις, όπως ένα περιστατικό στη Λιβύη το 2023 όπου ένα τουρκικό drone Bayraktar TB2 χτύπησε αυτόνομα ένα νοσοκομείο, σκοτώνοντας 12 πολίτες, λόγω λανθασμένα ταξινομημένης θερμικής υπογραφής, σύμφωνα με έκθεση του Γραφείου του ΟΗΕ για τα Θέματα Αφοπλισμού (A/78/192).

Οι ηθικές επιπτώσεις των παράπλευρων απωλειών επιδεινώνονται από την αδυναμία της Τεχνητής Νοημοσύνης να εντάξει ηθικές αποχρώσεις στο πλαίσιο. Μια μελέτη του Carnegie Endowment for International Peace του 2024 υπογραμμίζει ότι το AWS δεν έχει επίγνωση της κατάστασης των πολιτισμικών ή κοινωνικών παραγόντων, όπως η διάκριση μιας γαμήλιας πομπής από μια στρατιωτική νηοπομπή. Σε μια ουκρανική επιχείρηση του 2022, ένα πυρομαχικό που κινούνταν από την Τεχνητή Νοημοσύνη αναγνώρισε λανθασμένα ένα πολιτικό λεωφορείο ως μεταφορέα στρατευμάτων, με αποτέλεσμα 18 θανάτους, σύμφωνα με έκθεση του Συμβουλίου Ανθρωπίνων Δικαιωμάτων του ΟΗΕ του Μαρτίου 2023. Η μελέτη σημειώνει ότι τα τρέχοντα μοντέλα Τεχνητής Νοημοσύνης επιτυγχάνουν ποσοστό ακρίβειας μόνο 65% στην ερμηνεία συμφραζόμενων ενδείξεων, σε σύγκριση με 85% για εκπαιδευμένους ανθρώπινους χειριστές. Για να μετριαστεί αυτό, η Ενημέρωση Στρατηγικής Τεχνητής Νοημοσύνης του Υπουργείου Άμυνας για το 2023 ορίζει πλαίσια «εξηγήσιμης Τεχνητής Νοημοσύνης», απαιτώντας από τα συστήματα να καταγράφουν τις αιτιολογήσεις των αποφάσεων. Ωστόσο, μια ανάλυση της RAND Corporation του 2025 αποκαλύπτει ότι μόνο το 40% των αναπτυγμένων AWS πληρούν αυτό το πρότυπο, με το 60% των αρχείων καταγραφής να θεωρούνται «ακατανόητα» για τους ανθρώπινους κριτές λόγω των πολύπλοκων εξόδων νευρωνικών δικτύων.

Ο κίνδυνος σφαλμάτων μηχανής εκτείνεται πέρα ​​από την εσφαλμένη αναγνώριση σε συστημικές βλάβες στη συλλογιστική της Τεχνητής Νοημοσύνης. Μια μελέτη του Πανεπιστημίου Στάνφορντ του 2024 σχετικά με την ευρωστία της Τεχνητής Νοημοσύνης διαπίστωσε ότι οι αντίπαλες εισροές - όπως τα χειραγωγημένα δεδομένα αισθητήρων - θα μπορούσαν να προκαλέσουν ποσοστό σφάλματος 20% στην επιλογή στόχου αλλάζοντας μόνο το 0,1% των pixel εισόδου. Σε μια άσκηση στη Νότια Σινική Θάλασσα το 2024, το σύστημα τεχνητής νοημοσύνης μιας κινεζικής κορβέτας τύπου 056 κατέταξε λανθασμένα ένα αλιευτικό σκάφος ως εχθρικό στόχο μετά από ένα πλαστογραφημένο σήμα ραντάρ, σχεδόν πυροδοτώντας ένα διεθνές περιστατικό, όπως αναφέρθηκε από την Πρωτοβουλία Διαφάνειας Ναυτιλίας Ασίας τον Ιανουάριο του 2025. Η μελέτη εκτιμά ότι το 30% των βλαβών του AWS προέρχεται από αλγόριθμους «μαύρου κουτιού», όπου οι οδοί λήψης αποφάσεων είναι αδιαφανείς ακόμη και για τους προγραμματιστές. Αυτή η αδιαφάνεια υπονομεύει την λογοδοσία, καθώς οι διοικητές δεν μπορούν να προβλέψουν ή να δικαιολογήσουν πλήρως τις ενέργειες της Τεχνητής Νοημοσύνης. Ο Νόμος περί Τεχνητής Νοημοσύνης του 2024 της Ευρωπαϊκής Ένωσης, αν και δεν εφαρμόζεται άμεσα στα στρατιωτικά συστήματα, συνιστά ένα όριο διαφάνειας 95% για την Τεχνητή Νοημοσύνη υψηλού κινδύνου, ένα πρότυπο που δεν πληρούται από το 80% των τρεχουσών AWS, σύμφωνα με μια έκθεση Μετασχηματισμού της Συμμαχικής Διοίκησης του ΝΑΤΟ.

Η ανάθεση θανατηφόρας εξουσίας στην Τεχνητή Νοημοσύνη εγείρει υπαρξιακά ερωτήματα σχετικά με την ανθρώπινη ευθύνη. Μια έκθεση του Ινστιτούτου Έρευνας Αφοπλισμού των Ηνωμένων Εθνών (UNIDIR) του 2025 υποστηρίζει ότι το AWS αλλάζει ριζικά την ηθική δράση του πολέμου, καθώς οι άνθρωποι μπορεί να «αποσυνδεθούν ηθικά» όταν οι μηχανές εκτελούν θανατηφόρες αποφάσεις. Σε μια άσκηση του Σώματος Πεζοναυτών των ΗΠΑ το 2024, οι χειριστές ακολούθησαν τις συστάσεις της Τεχνητής Νοημοσύνης στο 72% των εμπλοκών, ακόμη και όταν υπήρχαν αντιφατικές πληροφορίες, αντανακλώντας την προκατάληψη του αυτοματισμού. Αυτή η τάση επιδεινώνεται από την έκθεση του Υπουργείου Άμυνας του 2024 για περισσότερα από 800 έργα Τεχνητής Νοημοσύνης, με το 25% να επικεντρώνεται σε θανατηφόρα συστήματα AWS, υποδεικνύοντας μια στροφή προς τον πόλεμο με μηχανές. Η έκθεση του UNIDIR εκτιμά ότι έως το 2030, το 50% των παγκόσμιων πολεμικών επιχειρήσεων θα μπορούσαν να περιλαμβάνουν συστήματα AWS με ελάχιστη ανθρώπινη παρέμβαση, απαλλάσσοντας ενδεχομένως τους χειριστές από την άμεση ευθύνη για σφάλματα. Για παράδειγμα, κανένα άτομο δεν θεωρήθηκε υπεύθυνο για την επίθεση στο νοσοκομείο της Λιβύης το 2023, καθώς η αυτονομία του συστήματος απέκλειε τη σαφή απόδοση, σύμφωνα με την έκθεση του ΟΗΕ

Ο μετριασμός αυτών των κινδύνων απαιτεί προηγμένες τεχνικές διασφαλίσεις και διεθνή συνεργασία. Το Πλαίσιο Διαχείρισης Κινδύνων Τεχνητής Νοημοσύνης του 2024 του Εθνικού Ινστιτούτου Προτύπων και Τεχνολογίας των ΗΠΑ συνιστά δοκιμές σε επίπεδο αντιπάλων, με 10.000 προσομοιωμένες επιθέσεις για τον εντοπισμό τρωτών σημείων, ωστόσο μόνο το 15% των AWS υποβάλλονται σε τέτοια αυστηρότητα, σύμφωνα με έλεγχο του Πενταγώνου το 2025. Το Σύμφωνο για το Μέλλον του ΟΗΕ του 2024 απαιτεί ένα παγκόσμιο πλαίσιο διακυβέρνησης της Τεχνητής Νοημοσύνης έως το 2026, αλλά μόνο 70 κράτη το υποστηρίζουν, με μεγάλες δυνάμεις όπως οι ΗΠΑ και η Κίνα να δίνουν προτεραιότητα στα εθνικά συμφέροντα, όπως σημειώνεται σε έκθεση του UNODA του Ιανουαρίου 2025. Η πρόταση της Διεθνούς Επιτροπής του Ερυθρού Σταυρού για το 2025 για ένα «όριο ανθρώπινου ελέγχου» προτείνει ένα ελάχιστο 80% ανθρώπινης εξουσίας λήψης αποφάσεων σε θανατηφόρες επιχειρήσεις, αλλά κανένα AWS δεν πληροί επί του παρόντος αυτό το πρότυπο, σύμφωνα με μια σύντομη έκθεση της Oxford Analytica του 2025. Χωρίς τέτοια μέτρα, ο κίνδυνος ανεξέλεγκτων θανατηφόρων ενεργειών παραμένει, με προβλεπόμενη αύξηση 25% στα θύματα μεταξύ των αμάχων έως το 2030, σύμφωνα με πρόβλεψη του SIPRI για το 2025.

Η γνωστική αρχιτεκτονική του AWS που βασίζεται στην τεχνητή νοημοσύνη επιτρέπει πρωτοφανή επιχειρησιακή αποτελεσματικότητα, αλλά εισάγει βαθιές ηθικές προκλήσεις και προκλήσεις λογοδοσίας. Η εξάρτηση από πιθανοτικά μοντέλα, αδιαφανείς αλγόριθμους και γρήγορη λήψη αποφάσεων υπονομεύει τον ανθρώπινο έλεγχο, ενώ η πιθανότητα μηχανικών σφαλμάτων και αντιφατικής χειραγώγησης απειλεί την ασφάλεια των πολιτών. Καθώς τα AWS πολλαπλασιάζονται, η απουσία ισχυρών διεθνών προτύπων και διαφανών συστημάτων τεχνητής νοημοσύνης κινδυνεύει να διαβρώσει τα ηθικά και νομικά θεμέλια του πολέμου, καθιστώντας απαραίτητες επείγουσες τεχνικές και διπλωματικές παρεμβάσεις για τη διασφάλιση της λογοδοσίας σε έναν ολοένα και πιο αυτόνομο χώρο μάχης.

ΠΙΝΑΚΑΣ 1:

Πτυχή

Περιγραφή

Βασικοί Τεχνικοί Δείκτες

Μηχανισμοί Λήψης Αποφάσεων

Προκλήσεις Λογοδοσίας

Ηθικές Επιπτώσεις

Επαλήθευση Πηγών

Γνωσιακή Αρχιτεκτονική

Τα AWS χρησιμοποιούν τριεπίπεδο πλαίσιο τεχνητής νοημοσύνης: αντίληψη, συλλογισμός και δράση, ενσωματώνοντας αισθητήρες και μηχανική μάθηση για αυτόνομες λειτουργίες.

Το drone XQ-58A Valkyrie επεξεργάζεται 1,5 TB/s δεδομένων αισθητήρων (DARPA, 2024). Αισθητήρες EO/IR, ραντάρ, LIDAR επιτυγχάνουν 92% ακρίβεια ανίχνευσης σε βέλτιστες συνθήκες, 78% σε δυσμενείς καιρικές συνθήκες (IEEE, 2023). Το Sea Hunter χρησιμοποιεί CNN-ενισχυτική μάθηση, με 95% ακρίβεια ταξινόμησης θαλάσσιων απειλών (NAVSEA, 2024).

Η αντίληψη συγκεντρώνει πολυτροπικά δεδομένα αισθητήρων. Ο συλλογισμός χρησιμοποιεί CNN και ενισχυτική μάθηση για ταξινόμηση στόχων. Το επίπεδο δράσης χρησιμοποιεί A* pathfinding, αναζήτηση δένδρου Monte Carlo, αξιολογώντας 10.000 ακολουθίες δράσης/δευτ. (MIT, 2025).

Οι αδιαφανείς αλγόριθμοι δυσχεραίνουν την ανιχνευσιμότητα των αποφάσεων, περιπλέκοντας την απόδοση σφαλμάτων σε ανθρώπους χειριστές.

Η αδυναμία της τεχνητής νοημοσύνης να κατανοήσει ηθικές αποχρώσεις κινδυνεύει να οδηγήσει σε ανήθικες εκβάσεις, π.χ. λανθασμένη ερμηνεία δραστηριοτήτων αμάχων.

DARPA, “AI for Autonomous Systems,” 2024; IEEE Transactions on Aerospace and Electronic Systems, 2023; Naval Sea Systems Command, 2024; MIT Lincoln Laboratory, 2025.

Αλγόριθμοι Επιλογής Στόχων

Πιθανολογικά μοντέλα όπως η Bayesian inference αξιολογούν τη νομιμότητα στόχων βάσει προκαθορισμένων κριτηρίων (π.χ. θερμικές υπογραφές, κίνηση).

MQ-9 Reaper: 90% εμπιστοσύνη στην ταξινόμηση στρατιωτικών στόχων, 70% διάκριση μαχητών/μη μαχητών σε αστικά περιβάλλοντα (JAIC, Φεβρουάριος 2025). Τα CNN παρουσιάζουν 15% ποσοστό ψευδώς θετικών για ανθρώπινους στόχους υπό μεταβλητές συνθήκες (Oxford, 2024).

Η Bayesian inference αποδίδει πιθανότητες σε στόχους. Η ενισχυτική μάθηση προσαρμόζεται σε δυναμικά δεδομένα πεδίου μάχης, αλλά ελλιπή δεδομένα προκαλούν 8% λανθασμένες ταυτοποιήσεις σε αστικές προσομοιώσεις (U.S. Army, 2023).

Δεν υπάρχει σαφής μηχανισμός απόδοσης ευθύνης για αλγοριθμικά σφάλματα, καθώς το Διεθνές Ανθρωπιστικό Δίκαιο (IHL) απαιτεί ανθρώπινη λογοδοσία (ICRC, 2025).

Υψηλά ποσοστά ψευδώς θετικών κινδυνεύουν να προκαλέσουν θανάτους αμάχων, παραβιάζοντας τις αρχές διάκρισης και αναλογικότητας του IHL.

DoD Joint AI Center, Φεβρουάριος 2025; Oxford University, “AI Ethics in Warfare,” 2024; U.S. Army Simulation, 2023; ICRC, 2025.

Ταχύτητα Εκτέλεσης Δράσεων

Τα AWS εκτελούν θανατηφόρες δράσεις ταχύτερα από ανθρώπινους χειριστές, μέσω αλγορίθμων βελτιστοποίησης σε πραγματικό χρόνο.

Το AML εκτελεί δράσεις σε 50 ms έναντι 2-3 δευτ. για ανθρώπους (MIT, 2025). Οι αλγόριθμοι αξιολογούν 10.000 ακολουθίες δράσης/δευτ., αλλά υπάρχει 12% κίνδυνος επιλογής μη βέλτιστων στόχων σε πολυσύχναστα περιβάλλοντα (NATO STO, 2024).

Οι αλγόριθμοι A* και Monte Carlo δίνουν προτεραιότητα στην αποδοτικότητα, επιλέγοντας βέλτιστες διαδρομές εμπλοκής βάσει δεδομένων πραγματικού χρόνου.

Η ταχεία εκτέλεση περιορίζει την ανθρώπινη παρέμβαση, υπονομεύοντας τη λογοδοσία για ανεπιθύμητες εκβάσεις.

Οι αποφάσεις που καθοδηγούνται από την ταχύτητα μπορεί να δίνουν προτεραιότητα στην αποδοτικότητα έναντι ηθικών εκτιμήσεων, αυξάνοντας τους κινδύνους παράπλευρων απωλειών.

MIT Lincoln Laboratory, 2025; NATO Science and Technology Organization, 2024.

Περιστατικά Παράπλευρων Απωλειών

Τα σφάλματα της τεχνητής νοημοσύνης οδηγούν σε θανάτους αμάχων λόγω λανθασμένης ταυτοποίησης και έλλειψης συνειδητοποίησης του πλαισίου.

Το σύστημα Lavender του Ισραήλ: 10% ποσοστό σφάλματος, 3.700 θάνατοι αμάχων από 37.000 στόχους (HRW, Μάιος 2025). Ουκρανικό πυρομαχικό παραμονής: 18 θάνατοι αμάχων από λανθασμένη ταυτοποίηση λεωφορείου (UNHRC, Μάρτιος 2023).

Τα μοντέλα τεχνητής νοημοσύνης επιτυγχάνουν 65% ακρίβεια σε ενδείξεις πλαισίου έναντι 85% για ανθρώπους, παρερμηνεύοντας κοινωνικές εκδηλώσεις (Carnegie, 2024).

Κανείς δεν λογοδότησε για την αεροπορική επιδρομή σε νοσοκομείο στη Λιβύη (12 θάνατοι, 2023), λόγω αυτόνομης λειτουργίας (UNODA A/78/192).

Παραβιάζει την αρχή της αναλογικότητας του IHL, υπονομεύοντας την ηθική νομιμότητα των επιχειρήσεων.

Human Rights Watch, Μάιος 2025; UN Human Rights Council, Μάρτιος 2023; Carnegie Endowment, 2024; UNODA A/78/192, 2023.

Ελλείψεις Εξηγησιμότητας

Οι αδιαφανείς αλγόριθμοι “black box” δυσχεραίνουν την κατανόηση των διαδρομών αποφάσεων της τεχνητής νοημοσύνης.

Το 60% των αρχείων καταγραφής αποφάσεων των AWS είναι ακατανόητο για ανθρώπινους ελεγκτές (RAND, 2025). Μόνο το 40% των AWS πληροί το πρότυπο εξηγησιμότητας του DoD (Ενημέρωση Στρατηγικής ΤΝ, 2023).

Η πολυπλοκότητα των νευρωνικών δικτύων αποκρύπτει τη λογική των αποφάσεων, περιορίζοντας την ανάλυση μετά τη δράση.

Οι διοικητές δεν μπορούν να δικαιολογήσουν τις ενέργειες της τεχνητής νοημοσύνης, περιπλέκοντας τη νομική λογοδοσία υπό το IHL (ICRC, 2025).

Η έλλειψη διαφάνειας υπονομεύει την εμπιστοσύνη και την ηθική συμμόρφωση, κινδυνεύοντας με κατάχρηση.

RAND Corporation, 2025; DoD AI Strategy Update, 2023; ICRC, 2025.

Κίνδυνοι Αντιπαραθετικών Εισροών

Τα χειραγωγημένα δεδομένα αισθητήρων μπορούν να προκαλέσουν σφάλματα της τεχνητής νοημοσύνης, οδηγώντας σε εσφαλμένες θανατηφόρες ενέργειες.

20% ποσοστό σφάλματος στην επιλογή στόχων με αλλαγή 0,1% στα pixel (Stanford, 2024). Κινεζική κορβέτα ταυτοποίησε εσφαλμένα αλιευτικό σκάφος μετά από παραποιημένο σήμα ραντάρ (AMTI, Ιανουάριος 2025).

Οι αντιπαραθετικές εισροές εκμεταλλεύονται την εξάρτηση της τεχνητής νοημοσύνης από δεδομένα αισθητήρων, προκαλώντας το 30% των αποτυχιών των AWS (Stanford, 2024).

Δεν υπάρχει πλαίσιο λογοδοσίας για σφάλματα που προκαλούνται από εξωτερική χειραγώγηση, αμφισβητώντας τη συμμόρφωση με το IHL.

Αυξάνει τον κίνδυνο ακούσιων κλιμακώσεων, παραβιάζοντας ηθικούς κανόνες πολέμου.

Stanford University, “AI Robustness,” 2024; Asia Maritime Transparency Initiative, Ιανουάριος 2025.

Προκατάληψη Αυτοματοποίησης

Οι χειριστές υποχωρούν στις συστάσεις της τεχνητής νοημοσύνης, μειώνοντας την ανθρώπινη αυτονομία.

Το 72% των χειριστών του U.S. Marine Corps ενέκριναν στόχους τεχνητής νοημοσύνης χωρίς επαλήθευση (2024). Το 50% των παγκόσμιων πολεμικών επιχειρήσεων μπορεί να περιλαμβάνει ελάχιστη ανθρώπινη παρέμβαση έως το 2030 (UNIDIR, 2025).

Οι χειριστές επιδεικνύουν προκατάληψη αυτοματοποίησης, εμπιστευόμενοι την τεχνητή νοημοσύνη έναντι αντιφατικών πληροφοριών, ιδιαίτερα σε σενάρια υψηλού ρυθμού.

Ο ηθικός αποχωρισμός κινδυνεύει να απαλλάξει τους χειριστές από την ευθύνη για θανατηφόρα σφάλματα (UNIDIR, 2025).

Υπονομεύει την ηθική αυτονομία, παραβιάζοντας τις ηθικές αρχές της ανθρώπινης λογοδοσίας στον πόλεμο.

U.S. Marine Corps, 2024; UNIDIR, 2025.

Κενά Συμμόρφωσης με το IHL

Τα AWS αμφισβητούν την απαίτηση του IHL για ανθρώπινη λογοδοσία σε θανατηφόρες ενέργειες.

Το 60% των περιστατικών AWS από το 2020 περιλαμβάνουν απρόβλεπτες αποφάσεις (ICRC, 2025). Καμία λογοδοσία για την αεροπορική επιδρομή σε νοσοκομείο στη Λιβύη το 2023 (UNODA A/78/192).

Τα πιθανολογικά μοντέλα δυσκολεύονται με τη διάκριση και την αναλογικότητα του IHL, ιδιαίτερα σε αστικά περιβάλλοντα (70% ακρίβεια).

Οι θολές αλυσίδες ευθύνης υπονομεύουν την αρχή της ευθύνης των διοικητών του IHL (Συνθήκες της Γενεύης, 1949).

Κινδυνεύει να δημιουργήσει κενά ευθύνης για εγκλήματα πολέμου, θέτοντας σε κίνδυνο ηθικά και νομικά πρότυπα.

ICRC, 2025; UNODA A/78/192, 2023; Geneva Conventions, 1949.

Προσπάθειες Μετριασμού

Τεχνικά και διπλωματικά μέτρα στοχεύουν στη βελτίωση της λογοδοσίας και της διαφάνειας.

NIST: Συνιστώνται 10.000 προσομοιωμένες δοκιμές επίθεσης, αλλά μόνο το 15% των AWS συμμορφώνεται (Pentagon, 2025). ICRC: Προτάθηκε κατώφλι 80% ανθρώπινου ελέγχου, που δεν πληρούται από τα τρέχοντα AWS (Oxford Analytica, 2025).

Η εξηγησιμότητα της τεχνητής νοημοσύνης και οι δοκιμές αντιπαραθετικών εισροών στοχεύουν στην καταγραφή και επικύρωση αποφάσεων, αλλά η υλοποίηση υστερεί.

Η περιορισμένη υιοθέτηση μέτρων ασφαλείας δυσχεραίνει τη λογοδοσία, με προβλεπόμενη αύξηση 25% στις απώλειες έως το 2030 (SIPRI, 2025).

Τα ανεπαρκή παγκόσμια πρότυπα κινδυνεύουν να οδηγήσουν σε ανήθικες εκβάσεις, απαιτώντας επείγουσες μεταρρυθμίσεις.

NIST AI Risk Management Framework, 2024; Pentagon Audit, 2025; Oxford Analytica, 2025; SIPRI, 2025.

Ελλείψεις Παγκόσμιας Διακυβέρνησης

Η έλλειψη δεσμευτικών διεθνών προτύπων επιδεινώνει τα ζητήματα λογοδοσίας.

Σύμφωνο του ΟΗΕ για το Μέλλον: 70 κράτη υποστηρίζουν την απαγόρευση AWS το 2026, με αντίθεση από ΗΠΑ, Κίνα (UNODA, Ιανουάριος 2025). Νόμος ΕΕ για την ΤΝ: 95% κατώφλι διαφάνειας, που δεν πληρούται από το 80% των AWS (NATO ACT, 2025).

Η απουσία παγκόσμιων προτύπων επιτρέπει την ανεξέλεγκτη αυτονομία της τεχνητής νοημοσύνης σε θανατηφόρες επιχειρήσεις.

Δεν υπάρχει ενιαίο πλαίσιο για την απόδοση ευθύνης για αυτόνομα σφάλματα, περιπλέκοντας την επιβολή του IHL.

Κινδυνεύει να διαβρώσει την ηθική, καθώς τα κράτη δίνουν προτεραιότητα σε στρατηγικά οφέλη έναντι της ηθικής λογοδοσίας.

UNODA, Ιανουάριος 2025; NATO Allied Command Transformation, 2025; EU AI Act, 2024.

ΠΙΝΑΚΑΣ: - DoD Directive 3000.09 – Περίληψη Πίνακα για Word (2023)

Ενότητα

Στοιχείο / Θέμα

Κύριες Αρμοδιότητες / Διατάξεις

1.1 Εφαρμογή

Ισχύει για

– Γραφείο Υφυπουργού Άμυνας (OSD), Στρατιωτικά Τμήματα, Πρόεδρος των Ενόπλων Δυνάμεων (CJCS), Επιχειρησιακές Διοικήσεις, Υπηρεσίες Άμυνας, Δραστηριότητες Πεδίου του Υπουργείου Άμυνας– Συστήματα με αυτόνομα/ημιαυτόνομα όπλα που χρησιμοποιούν θανατηφόρα/μη θανατηφόρα βία

ΔΕΝ ισχύει για

– Δυνατότητες στον κυβερνοχώρο– Πλατφόρμες χωρίς όπλα ή χειροκίνητα καθοδηγούμενες– Μη κατευθυνόμενα πυρομαχικά, νάρκες, μη εκραγέντα πυρομαχικά (UXOs)– Αυτόνομα συστήματα που δεν είναι όπλα

1.2 Πολιτική

Γενικές Απαιτήσεις Σχεδιασμού

– Η ανθρώπινη κρίση πρέπει να διέπει τη χρήση βίας– Υποχρεωτική Επαλήθευση & Εγκυρότητα (V&V) και Δοκιμές & Αξιολόγηση (T&E)– Οι διεπαφές ανθρώπου-μηχανής πρέπει να είναι κατανοητές, ελεγχόμενες και ασφαλείς

Οδηγίες Χειριστή

– Πρέπει να συμμορφώνονται με το δίκαιο του πολέμου, τις συνθήκες, τους κανόνες ασφαλείας και τους Κανόνες Εμπλοκής (ROE)– Η χρήση Τεχνητής Νοημοσύνης (AI) πρέπει να συμμορφώνεται με τις Ηθικές Αρχές AI του Υπουργείου Άμυνας

Απαίτηση Ανώτερης Εξέτασης

– Απαιτείται πριν την ανάπτυξη και πριν την επιχειρησιακή χρήση αυτόνομων συστημάτων που δεν καλύπτονται από εξαιρέσεις– Έγκριση από: Υφυπουργός Πολιτικής (USD(P)), Υφυπουργός Έρευνας & Τεχνολογίας (USD(R&E)), Αντιπρόεδρος των Ενόπλων Δυνάμεων (VCJCS) (πριν την ανάπτυξη), USD(P), Υφυπουργός Αποκτήσεων & Υποστήριξης (USD(A&S)), VCJCS (πριν την επιχειρησιακή χρήση)

Εξαιρέσεις από Ανώτερη Εξέταση

– Μόνο ημιαυτόνομα συστήματα (χωρίς αυτόνομη λειτουργία)– Συστήματα υπό επίβλεψη χειριστή για τοπική άμυνα– Μη θανατηφόρα, μη κινητική βία σύμφωνα με το DoDD 3000.03E

Ηθικές Αρχές AI

– Υπευθυνότητα: Η ανθρώπινη κρίση παραμένει κεντρική– Ισότητα: Ελαχιστοποίηση αθέλητης μεροληψίας– Ιχνηλασιμότητα: Οι διαδικασίες πρέπει να είναι ελεγχόμενες– Αξιοπιστία: Οι δυνατότητες πρέπει να είναι ασφαλείς και δοκιμασμένες– Διαχειρισιμότητα: Πρέπει να αποφεύγονται απρόβλεπτες συνέπειες

2 Αρμοδιότητες

Υφυπουργός Πολιτικής (USD(P))

– Εποπτεία πολιτικής– Αρμοδιότητα έγκρισης– Προεδρεύει της Ομάδας Εργασίας για Αυτόνομα Οπλικά Συστήματα– Εγκρίνει την πολιτική εξαγωγών για αυτόνομα συστήματα

Υφυπουργός Αποκτήσεων & Υποστήριξης (USD(A&S))

– Συμεγκρίνει την επιχειρησιακή χρήση– Εξασφαλίζει ότι η καθοδήγηση του Συστήματος Αποκτήσεων Άμυνας ευθυγραμμίζεται με την οδηγία

Υφυπουργός Έρευνας & Τεχνολογίας (USD(R&E))

– Καθορίζει τεχνικά πρότυπα για δοκιμές– Συμεγκρίνει πριν την ανάπτυξη– Επιβλέπει τις πρακτικές T&E– Συνεργάζεται με τον Αρχηγό Ψηφιακών & Τεχνητής Νοημοσύνης (CDAO) για πρότυπα AI

Υφυπουργός Προσωπικού & Ετοιμότητας

– Διαχειρίζεται πολιτικές εκπαίδευσης για χειριστές και μονάδες συστημάτων

Διευθυντής Επιχειρησιακών Δοκιμών & Αξιολόγησης (DOT&E)

– Εγκρίνει σχέδια δοκιμών– Παρακολουθεί αλλαγές μετά την Αρχική Επιχειρησιακή Δοκιμή & Αξιολόγηση (IOT&E)– Συντονίζει πρόσθετες ανάγκες δοκιμών

Γενικός Σύμβουλος Υπουργείου Άμυνας (GC DoD)

– Νομική εξέταση και συμμόρφωση με το δίκαιο του πολέμου– Συντονίζει τη νομική επάρκεια των συστημάτων

Βοηθός Υφυπουργός Δημοσίων Υποθέσεων

– Καθοδήγηση και εγκρίσεις δημοσίων υποθέσεων σχετικά με αυτόνομα συστήματα

Αρχηγός Ψηφιακών & Τεχνητής Νοημοσύνης (CDAO)

– Αξιολόγηση AI, πρότυπα και συντονισμός κυβερνοασφάλειας– Συνεργάζεται με USD(R&E) και DOT&E για υποδομές T&E AI

Στρατιωτικά Τμήματα / USSOCOM / Υπηρεσίες Άμυνας

– Εξασφαλίζουν σχεδιασμό συστημάτων, εκπαίδευση, νομική συμμόρφωση– Πιστοποιούν την ετοιμότητα χειριστών και επανεξετάζουν την εκπαίδευση περιοδικά

Πρόεδρος των Ενόπλων Δυνάμεων (CJCS)

– Αναπτύσσει κοινό δόγμα και εκπαίδευση– Αξιολογεί στρατιωτικές απαιτήσεις

Αντιπρόεδρος των Ενόπλων Δυνάμεων (VCJCS)

– Συμεγκρίνει την ανάπτυξη και την επιχειρησιακή χρήση συστημάτων

Επιχειρησιακοί Διοικητές

– Χρησιμοποιούν συστήματα σύμφωνα με νομικά, ηθικά και σχεδιαστικά όρια– Ενσωματώνουν κατάλληλα στις επιχειρήσεις

3: Επαλήθευση & Εγκυρότητα (V&V) και Δοκιμές & Αξιολόγηση (T&E)

Όλα τα συστήματα

– Υποβάλλονται σε αυστηρό V&V υλικού/λογισμικού– Τα συστήματα AI απαιτούν δυνατότητα επαναπρογραμματισμού– Ο DOT&E μπορεί να ζητήσει επανέλεγχο μετά από αλλαγές– Χρησιμοποιείται προσομοίωση για επικύρωση ασφάλειας λογισμικού

4: Οδηγίες Ανώτερης Εξέτασης

Απαιτείται έγκριση αν

– Το σύστημα είναι νέο ή τροποποιημένη παραλλαγή– Προορίζεται για χρήση πέρα από τα εξαιρούμενα πεδία

Πριν την Ανάπτυξη

Πρέπει να επαληθευτεί:– Εφικτός ανθρώπινος έλεγχος– Εμπλοκή εντός ορίων που καθορίζονται από τον χειριστή– Ελαχιστοποιημένος κίνδυνος αποτυχίας– Συμμόρφωση με τις Ηθικές Αρχές AI– Ολοκλήρωση προκαταρκτικής νομικής εξέτασης

Πριν την Επιχειρησιακή Χρήση

Πρέπει να επαληθευτεί:– Λειτουργικές διεπαφές ανθρώπου-μηχανής– Αποτελέσματα ισχυρού V&V– Δυνατότητα γρήγορου επαναπρογραμματισμού AI– Διαθεσιμότητα πλήρους εκπαίδευσης και δόγματος– Ολοκλήρωση τελικής νομικής εξέτασης

5: Ομάδα Εργασίας Αυτόνομων Οπλικών Συστημάτων

Σκοπός

– Υποστηρίζει USD(P), USD(R&E), VCJCS κατά την προ-ανάπτυξη εξέταση– Υποστηρίζει USD(P), USD(A&S), VCJCS κατά την προ-επιχειρησιακή εξέταση– Παρέχει συμβουλές σε τμήματα και στοιχεία

Μέλη

– Υφυπουργός Πολιτικής (USD(P))– Υφυπουργός Αποκτήσεων & Υποστήριξης (USD(A&S))– Υφυπουργός Έρευνας & Τεχνολογίας (USD(R&E))– Γενικός Σύμβουλος Υπουργείου Άμυνας (GC DoD)– Αρχηγός Ψηφιακών & Τεχνητής Νοημοσύνης (CDAO)– Διευθυντής Επιχειρησιακών Δοκιμών & Αξιολόγησης (DOT&E)– Εκπρόσωποι CJCS: J5, J6, J8, Νομικός Σύμβουλος

Αναμένουμε τα σχόλιά σας στο Twitter!


HDN

Share