-Δημοσίευση στο περιοδικό «Εθνικές Επάλξεις, του Συνδέσμου Επιτελών Εθνικής Άμυνας (ΣΕΕΘΑ), αρ. τεύχους 122, Οκτώβριος-Δεκέμβριος 2017
-Ιστότοπος ΣΕΕΘΑ: https://www.seetha.gr/
Του Παντελεήμονος Γ. Στεργιάννη, Δικηγόρου Αθηνών -Διαμεσολαβητή
Εισαγωγή και ορισμός
Όπως είναι γνωστό το δίκαιο του πολέμου χωρίζεται σε δύο επιμέρους τομείς. Πρώτον, στο jus ad bellum (Δίκαιο που εφαρμόζεται πριν τον πόλεμο) και, δεύτερον, το jus in bello ή –αλλιώς- Διεθνές Ανθρωπιστικό Δίκαιο (που εφαρμόζεται κατά τη διάρκεια του πολέμου). Στο συγκεκριμένο άρθρο θα εξετάσουμε συνοπτικά ένα θέμα που προβληματίζει παγκοσμίως πολιτικούς, στρατιωτικούς, νομικούς και πολίτες εξ όψεως Διεθνούς Ανθρωπιστικού Δικαίου, το οποίο δεν πρέπει να συγχέεται με το Δίκαιο Ανθρωπίνων Δικαιωμάτων.
Στη σύγχρονη εποχή της πληροφορίας και της τεχνολογίας, ένα πεδίο που μπορεί να αλλάξει δραματικά στο μέλλον είναι αυτό των στρατιωτικών επιχειρήσεων. Η τεχνολογία επέτρεψε τη συμμετοχή ορισμένων ρομπότ σε εχθροπραξίες και πρωτοβουλίες ως ανθρώπινα όντα, τα αποκαλούμενα αυτόνομα οπλικά συστήματα (ΑΟΣ). Κατ’αρχήν, δεν υπάρχει διεθνής αποδεκτός ορισμός για τα ΑΟΣ. Ο αρμόδιος Ειδικός Εισηγητής του ΟΗΕ δήλωσε ότι: «Η θανατηφόρος αυτόνομη ρομποτική (LAR) αναφέρεται σε συστήματα ρομποτικών όπλων που μετά την ενεργοποίησή τους μπορούν να επιλέξουν και να επιδιώξουν στόχους χωρίς περαιτέρω παρέμβαση ενός ανθρώπινου χειριστή». Το Παρατήριο Ανθρωπίνων Δικαιωμάτων ορίζει αυτά τα όπλα ως ικανά επιλογής στόχων και χρήσης βίας χωρίς ανθρώπινη αλληλεπίδραση, ενώ υπάρχουν και άλλα που μπορούν να ελεγχθούν από έναν ανθρώπινο χειριστή, εάν είναι απαραίτητο. Η Διεθνής Επιτροπή Ερυθρού Σταυρού (ICRC) επικεντρώθηκε στην «αυτονομία στις κρίσιμες λειτουργίες και όχι αυτονομία του συνολικού οπλικού συστήματος».
Τύποι ρομπότ
Υπερσύγχρονα πολυβόλα όπλα, drones καθώς και άλλα οπλικά συστήματα, όπως για παράδειγμα το σύστημα εγγύς προστασίας «Phalanx» του ΠΝ, μπορούν να θεωρηθούν ΑΟΣ. Πως προσδιορίζονται όμως νομικά; Κατ’ αρχάς, προκειμένου να αναπτυχθεί μια ορθολογική και ενημερωμένη πολιτική για τα ΑΟΣ, οι νομικές έννοιες όπως αυτές που περιγράφονται στο παρόν άρθρο πρέπει να συνδέονται άμεσα με την εύλογα προβλέψιμη τεχνολογία της «τεχνητής νοημοσύνης» και «μηχανικής μάθησης». Τα ΑΟΣ είναι διαφορετικά από τα «πολιτικά»-μη στρατιωτικά ρομπότ, όπως οι υποβρύχιες συσκευές εξερεύνησης ή τα αεροπλάνα που μπορούν να λειτουργούν αυτόνομα. Στον στρατιωτικό τομέα μπορούμε να διακρίνουμε τα αυτόματα και τα αυτόνομα συστήματα. Τα πρώτα έχουν μια εκ των προτέρων προγραμματισμένη λειτουργία, ενώ τα τελευταία μπορούν να κρίνουν εάν και πότε μπορούν να ασκήσουν βία ή όχι. Στη συνέχεια, τα ΑΟΣ χωρίζονται σε αυτόνομα, ελεγχόμενα αυτόνομα ή ημιαυτόνομα όπλα. Καθένα από αυτά έχει τα δικά του στρατηγικά πλεονεκτήματα αλλά και προκλήσεις.
Υπάρχον νομικό πλαίσιο και κύρια ζητήματα Διεθνούς Ανθρωπιστικού Δικαίου (ΔΑΔ)
Αρχικά, συμφωνείται γενικά ότι η χρήση των ΑΟΣ σε ένοπλες συγκρούσεις διέπεται από το ΔΑΔ. Όσον αφορά τη νομιμότητα των όπλων, υπάρχουν δύο κανόνες. Ο πρώτος κανόνας είναι ότι το οπλικό σύστημα δεν πρέπει να δρα «αδιακρίτως» από τη φύση του. Σύμφωνα με το Πρώτο Πρόσθετο Πρωτόκολλο (ΠΠΙ) της Συνθήκης της Γενεύης του 1949 περί προστασίας των θυμάτων των διεθνών ενόπλων συγκρούσεων, ένα όπλο θεωρείται ότι δρα «αδιακρίτως» εάν δεν μπορεί να στοχεύει σε συγκεκριμένο στόχο και να διακρίνει μεταξύ πολιτών και μαχητών. Έπειτα, ένα όπλο δεν μπορεί να προκαλέσει περιττό πόνο ή τραυματισμό. Για να επαληθευτεί η συμμόρφωση με αυτούς τους κανόνες, η κρατική πρόθεση για την τοποθέτηση όπλου τέτοιου τύπου πρέπει να ακολουθείται από νομική επανεξέταση και γνωμοδότηση. Η απαίτηση αυτή διασφαλίζει ότι το όπλο δε θα δρα «αδιακρίτως», δε θα προκαλέσει περιττό βάσανο και ότι δεν υπάρχει άλλη ειδική διάταξη βάσει του νόμου των ένοπλων συγκρούσεων που να απαγορεύει τη χρήση του όπλου. Αυτό απαιτείται ακόμη και από κράτη που δεν συμμετέχουν στο Πρώτο Πρόσθετο Πρωτόκολλο, όπως αυτό αποτελεί εθιμικό διεθνές δίκαιο.
Επίσης, τον Μάιο του 2014, τα συμβαλλόμενα μέρη της Σύμβασης για ορισμένα συμβατικά όπλα του 1980 (CCW) συζήτησαν για πρώτη φορά το ζήτημα των «θανατηφόρων αυτόνομων οπλικών συστημάτων», συμπεριλαμβανομένης της ανταλλαγής πληροφοριών και της ανάπτυξης βέλτιστων πρακτικών. Αργότερα, κάποιοι παραδέχτηκαν τον αντίκτυπο που θα μπορούσαν να έχουν αυτά τα όπλα στα ανθρώπινα δικαιώματα. Σημειωτέον ότι πριν λίγους μήνες 116 επιστήμονες και ειδικοί της ρομποτικής και της τεχνητής νοημοσύνης ζήτησαν με ανοικτή επιστολή τους προς τον ΟΗΕ την ρητή απαγόρευση της χρησιμοποίησης θανατηφόρων ΑΟΣ και την πρόσθεσή τους στη λίστα των απογορευμένων όπλων της Σύμβασης για ορισμένα συμβατικά όπλα (CCW), ούτως ώστε να αποτραπεί η δημιουργία μίας νέας μορφής πολέμου.
Παρά τα προαναφερθέντα, υπάρχουν προκλήσεις όσον αφορά τη συμμόρφωση με το ΔΑΔ κατά τη διάρκεια εχθροπραξιών και κυρίως με τις αρχές της διάκρισης, της αναλογικότητας και των προφυλάξεων κατά τις επιθέσεις. Για παράδειγμα, όσον αφορά την αρχή της διάκρισης, οι ορισμοί του «στρατιωτικού πλεονεκτήματος» και του «στρατιωτικού στόχου» εξαρτώνται από το εν γένει περιβάλλον (άρ. 48 Πρώτου Πρόσθετου Πρωτοκόλλου). Ορισμένα αντικείμενα πληρούν τον ορισμό σε οποιαδήποτε ένοπλη σύγκρουση (π.χ. δεξαμενές, στρατιωτικές βάσεις). Άλλα αντικείμενα που είναι εκ των προτέρων πολιτικά (π.χ. νοσοκομεία, σχολεία) μπορεί να αποτελέσουν στρατιωτικούς στόχους εάν πληρούνται τα κριτήρια ενός «στρατιωτικού στόχου», για παράδειγμα αν χρησιμοποιούνται ως ορμητήρια επιθέσεων από μία στρατιωτική δύναμη. Το ίδιο ισχύει και για τη διάκριση μεταξύ πολιτών και πολεμιστών, ενός ενεργού πολεμιστή με ένα πρόσωπο εκτός μάχης (hors de combat) και – κυρίως – και για την εφαρμογή του τεκμηρίου του καθεστώτος του πολίτη σε περιπτώσεις αμφιβολιών. Η αξιολόγηση αυτών των κριτηρίων θα αποτελούσε σημαντική πρόκληση, διότι απαιτεί την εκτίμηση των συμφραζόμενων στοιχείων που ποικίλλουν ανάλογα με τις περιστάσεις. Έτσι, απαιτούνται ποιοτικές ή υποκειμενικές κρίσεις.
Κατά συνέπεια, αμφισβητείται το κατά πόσον είναι δυνατόν να προγραμματιστούν αυτόνομα συστήματα κατά τρόπον ώστε να αποφευχθεί με ασφάλεια η υπερβολική «παράπλευρη απώλεια», όπως ζητεί η αρχή της αναλογικότητας. Είναι επίσης αμφίβολο κατά πόσον τα ΑΟΣ θα μπορούσαν να προγραμματιστούν κατά τρόπον ώστε να είναι σε θέση να συμμορφώνονται με τις υποχρεώσεις του ΔΑΔ ώστε να λαμβάνουν προφυλάξεις κατά την επίθεση και αν η χρήση τους αυτή καθεαυτή συνιστά τέτοιου είδους παραβίαση.
Επιπλέον, ένα άλλο πρόβλημα είναι αυτό της ποινικής ευθύνης. Σύμφωνα με το ΔΑΔ και το Διεθνές Ποινικό Δίκαιο, τα άτομα είναι υπεύθυνα για εγκλήματα πολέμου που τυχόν διαπράττουν. Πρέπει επίσης να είναι υπεύθυνα για τέτοιες πράξεις τα άτομα που αναπτύσσουν ένα ΑΟΣ; Ή ισχύει η κρατική ευθύνη, καθώς αυτά τα όπλα χρησιμοποιούνται υπέρ του στρατού ενός κράτους; Φυσικά, υπάρχει επίσης το πρόβλημα της αστικής ευθύνης, καθώς τα θύματα των επιθέσεων έχουν το δικαίωμα να ζητήσουν αποζημιώσεις – ακόμη και εκείνη της εταιρικής εγκληματικής ευθύνης, καθώς ορισμένες χώρες που έχουν την ικανότητα να αναπτύξουν ΑΟΣ έχουν νόμους που επιβάλλουν κυρώσεις στις εταιρικές οντότητες.
Κατακλείδα
Τέλος, εκτός από τα νομικά προβλήματα που μπορούν να συζητηθούν και να λυθούν, υπάρχουν και ηθικές ανησυχίες. Έχει υποστηριχθεί ότι επειδή ένα ΑΟΣ δεν μπορεί να είναι συναισθηματικό, είναι πιο πιθανό από το ανθρώπινο ον να «συμπεριφέρεται» νόμιμα ή «ηθικά». Αλλά είναι ηθικά αποδεκτό να υπάρχουν μηχανές που αποφασίζουν για τη στέρηση της ζωής ενός ανθρώπου; Μία τέτοιου είδους απόφαση είναι κάτι που προβληματίζει ακόμα και τους πιο θερμούς υποστηρικτές της χρησιμοποίησης των ΑΟΣ κατά τη διάρκεια των ενόπλων συγκρούσεων, όπως είναι οι ΗΠΑ.
ΒΙΒΛΙΟΓΡΑΦΙΑ
Πρωτογενείς πηγές:
– Πρόσθετο Πρωτόκολλο Ι (1977) της Συμβάσεως της Γενεύης της 12ης Αυγούστου 1949),
– Σύμβαση ΟΗΕ για Ορισμένα Συμβατικά Όπλα (CCW ή CCWC)
– Άρθρα της Επιτροπής Διεθνούς Δικαίου του ΟΗΕ περί ευθύνης των Κρατών από διεθνώς άδικες ενέργειες (2001)
Συγγραφείς:
– Report of the Special Rapporteur on extrajudicial, summary or arbitrary executions, Christof Heyns, UN doc. A/HRC/23/47
– B. Docherty, Losing Humanity: The Case against Killer Robots, HRW (Νοέμβριος 2012)
-ICRC (Διεθνής Επιτροπή Ερυθρού Σταυρού), Report of an expert meeting on ‘Autonomous weapon systems: technical, military, legal and humanitarian aspects’, Geneva (26–28 Μαρτίου 2014), Νοέμβριος 2014
– Jeffrey S. Thurnher, The Law That Applies to Autonomous Weapon Systems (2013), American Society of International Law, https://www.asil.org
– Autonomous Weapon Systems under International Law, Geneva Academy of International Humanitarian Law and Human Rights, Νοέμβριος 2014
– Robin Geiss, The International-Law Dimension of Autonomous Weapons Systems, (2015), http://library.fes.de/
– Rule 151, ICRC, Customary IHL Study. At: https://www.icrc.org/customary-ihl/
– Alan Schuller, Autonomous Weapon Systems and the Decision to Kill, https://www.justsecurity.org/45164/autonomous-weapon-systems-decision-kill/
– Samuel Gibbs, Elon Musk leads 116 experts calling for outright ban of killer robots, https://www.theguardian.com/technology/2017/aug/20/elon-musk-killer-robots-experts-outright-ban-lethal-autonomous-weapons-war