«Η «παραγωγική» Τεχνητή Νοημοσύνη ως όπλο στην υπηρεσία τρομοκρατικών ομάδων: ρύθμιση, λογοδοσία και προκλήσεις στον κυβερνοχώρο»
Ημερομηνία έκδοσης
2026
Συγγραφείς
Επιβλέπων/ουσα
Μέλη εξεταστικής επιτροπής
Τίτλος Εφημερίδας
Περιοδικό ISSN
Τίτλος τόμου
Εκδότης
Πάντειον Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών
Περίληψη
Η παρούσα διπλωματική εργασία διερευνά τις πολυδιάστατες επιπτώσεις της ενσωμάτωσης της Παραγωγικής Τεχνητής Νοημοσύνης (Generative AI) στο επιχειρησιακό δόγμα της σύγχρονης τρομοκρατίας. Κεντρικό ρευνητικό ερώτημα αποτελεί το κατά πόσον η χρήση προηγμένων αλγοριθμικών συστημάτων από μη κρατικούς δρώντες συνιστά μια απλή ποσοτική αναβάθμιση των δυνατοτήτων τους ή μια θεμελιώδη ποιοτική τομή που μεταβάλλει οντολογικά τη φύση της ασύμμετρης απειλής. Μέσα από την εξέταση μελετών περίπτωσης (ISIS, Χαμάς, Χεζμπολάχ), η ανάλυση τεκμηριώνει ότι η GenAI λειτουργεί ως στρατηγικός «πολλαπλασιαστής ισχύος» (force multiplier), επιτρέποντας τη διεξαγωγή επιχειρήσεων Γνωσιακού Πολέμου (Cognitive Warfare) μέσω της μαζικής παραγωγής deepfakes, αυτοματοποιημένης προπαγάνδας και ψυχολογικής χειραγώγησης. Παρά τον ψηφιακό χαρακτήρα της απειλής, η μελέτη αποδομεί τον μύθο της «αποεδαφικοποίησης», αποδεικνύοντας ότι η ψηφιακή τρομοκρατία παραμένει γεωπολιτικά εξαρτημένη από φυσικές υποδομές που φιλοξενούνται εντός «Αποτυχημένων Κρατών» (Failed States) ή «Γκρίζων Ζωνών». Στο νομικό σκέλος, η διατριβή εξετάζει την επάρκεια του Διεθνούς Δικαίου να διαχειριστεί την πρόκληση της αλγοριθμικής αυτονομίας («πρόβλημα του μαύρου κουτιού»). Διαπιστώνεται ότι τα παραδοσιακά κριτήρια ελέγχου δυσχεραίνουν την άμεση απόδοση ευθύνης (attribution). Ως απάντηση, προτείνεται η τελεολογική ερμηνεία του Άρθρου 8 του Παραρτήματος της Απόφασης 56/83 της Γενικής Συνέλευσης του ΟΗΕ, όπου η εντολή εισαγωγής δεδομένων (Prompt) εξισώνεται νομικά με την «Οδηγία» (Instruction), γεφυρώνοντας το χάσμα μεταξύ ανθρώπινης πρόθεσης και μηχανικού αποτελέσματος. Δεδομένων των δυσκολιών στον εντοπισμό του δράστη, η εργασία υποστηρίζει τη στροφή από την κατασταλτική στην προληπτική ευθύνη μέσω του δόγματος της Δέουσας Επιμέλειας (Due Diligence). Βασιζόμενη στη νομολογία της υπόθεσης Corfu Channel και σε σύγχρονα ρυθμιστικά πρότυπα όπως το EU AI Act, συμπεραίνει ότι τα κράτη φέρουν θετική υποχρέωση θωράκισης των ψηφιακών τους υποδομών. Η παράλειψη άσκησης αποτελεσματικής εποπτείας δύναται να θεμελιώσει διεθνή ευθύνη, κλείνοντας έτσι το παράθυρο ατιμωρησίας που εκμεταλλεύονται οι τρομοκρατικές οργανώσεις.This thesis investigates the multidimensional implications of integrating Generative Artificial Intelligence (Generative AI) into the operational doctrine of modern terrorism. The central research question posits whether the use of advanced algorithmic systems by non-state actors constitutes a mere quantitative upgrade of their capabilities or a fundamental qualitative shift that ontologically alters the nature of the asymmetric threat. Through the examination of case studies (ISIS, Hamas, Hezbollah), the analysis substantiates that GenAI functions as a strategic "force multiplier," enabling the conduct of Cognitive Warfare operations through the mass production of deepfakes, automated propaganda, and psychological manipulation. Despite the digital nature of the threat, the study deconstructs the myth of "de-territorialization," demonstrating that digital terrorism remains geopolitically dependent on physical infrastructures hosted within "Failed States" or "Gray Zones." In the legal domain, the thesis examines the adequacy of International Law in addressing the challenge of algorithmic autonomy (the "black box problem"). It is found that traditional control criteria hinder direct attribution. In response, a teleological interpretation of Article 8 of the Annex to UN General Assembly Resolution 56/83 is proposed, wherein the data input command (Prompt) is legally equated with an "Instruction," thereby bridging the gap between human intent and machine output. Given the difficulties in identifying the perpetrator, the thesis advocates a shift from repressive to preventive responsibility via the doctrine of Due Diligence. Drawing on the Corfu Channel case jurisprudence and contemporary regulatory standards such as the EU AI Act, it concludes that states bear a positive obligation to shield their digital infrastructures. Failure to exercise effective oversight can establish international responsibility, thus closing the window of impunity exploited by terrorist organizations.
Περιγραφή
Λέξεις-κλειδιά
Παραγωγική Τεχνητή Νοημοσύνη, Διεθνές Δίκαιο, Τρομοκρατία, Κρατική Ευθύνη, Κυβερνοχώρος, Αποτελεσματικός Έλεγχος, Ψηφιακό Χαλιφάτο, Generative AI, International Law, Terrorism, State Responsibility, Cyberspace, Effective Control, Digital Caliphate
Παραπομπή
Άδεια Creative Commons
Εκτός εάν σημειώνεται διαφορετικά, η άδεια αυτού του αντικειμένου περιγράφεται ως Attribution 4.0 International
Παραπομπή ως
Μπεκιάρης, Π. (2026). «Η «παραγωγική» Τεχνητή Νοημοσύνη ως όπλο στην υπηρεσία τρομοκρατικών ομάδων: ρύθμιση, λογοδοσία και προκλήσεις στον κυβερνοχώρο». Πάντειον Πανεπιστήμιο Κοινωνικών και Πολιτικών Επιστημών. https://pandemos.panteion.gr/handle/123456789/24823
Προσοχή! Οι παραπομπές μπορεί να μην είναι πλήρως ακριβείς
