Ένα εργαλείο του Ψυχρού Πολέμου για μια νέα εποχή τεχνολογίας

Η σχέση μεταξύ του αμερικανικού Υπουργείου Άμυνας και μιας από τις κορυφαίες εταιρείες τεχνητής νοημοσύνης του κόσμου έχει φθάσει σε σημείο θραύσης. Ο Υπουργός Άμυνας Pete Hegseth έχει εκδώσει ένα σαφές ultimatum στην Anthropic: συμφωνήστε να επιτρέψετε απεριόριστη στρατιωτική χρήση της τεχνολογίας AI σας έως την Παρασκευή, ή προσδοκάται αποκλεισμός από την αλυσίδα εφοδιασμού του Πενταγώνου.

Η απειλή ήρθε κατά τη διάρκεια μιας τεταμένης συνάντησης στην Ουάσιγκτον την Τρίτη, όπου ο Hegseth κάλεσε τον CEO της Anthropic Dario Amodei για αυτό που πηγές περιέγραψαν ως μια σύγκρουση σχετικά με την αρνητική στάση της εταιρείας να παραχωρήσει στρατιωτική απεριόριστη πρόσβαση στα AI μοντέλα της για ταξινομημένες επιχειρήσεις. Μεταξύ των πιο αμφιλεγόμενων απαιτήσεων ήταν διατάξεις για εσωτερικές δυνατότητες επιτήρησης και ανθρωποκτόνες αυτόνομες αποστολές χωρίς άμεσο ανθρώπινο έλεγχο.

Ίσως πιο εντυπωσιακή ήταν η αναφορά του Hegseth στο Defense Production Act, ένας νόμος από την εποχή του Ψυχρού Πολέμου που δίνει στον πρόεδρο ευρείες εξουσίες να αναγκάσει τις εσωτερικές βιομηχανίες να εξυπηρετούν τις προτεραιότητες της εθνικής άμυνας. Αρχικά σχεδιασμένος για να διασφαλίσει ότι τα εργοστάσια θα μπορούσαν να μετατραπούν σε παραγωγή πολέμου, ο νόμος δεν είχε ποτέ χρησιμοποιηθεί για να αναγκάσει μια εταιρεία AI να παραδώσει την τεχνολογία της — κάνοντας αυτή την απειλή άνευ προηγουμένου στην ιστορία της αμερικανικής πολιτικής τεχνολογίας.

Η άμυνα-πρώτη θέση της Anthropic υπό πίεση

Η Anthropic έχει επί μακρόν ξεχωρίσει τον εαυτό της στη βιομηχανία AI μέσω της έμφασης στην έρευνα ασφάλειας και τη υπεύθυνη ανάπτυξη. Η εταιρεία, ιδρυθείσα από τους πρώην ερευνητές του OpenAI Dario και Daniela Amodei, έχει δημιουργήσει το brand της γύρω από την έννοια του συνταγματικού AI — συστήματα που σχεδιάστηκαν με ενσωματωμένες ηθικές περιορίσεις που προορίζονται για την αποτροπή κατάχρησης.

Αυτή η φιλοσοφία που βάζει την ασφάλεια πρώτα έχει τώρα θέσει την εταιρεία σε πορεία σύγκρουσης με την αυξανόμενη όρεξη του Πενταγώνου για ολοκλήρωση AI σε όλες τις στρατιωτικές επιχειρήσεις. Ενώ η Anthropic δεν έχει αντιταθεί σε όλα τα αμυντικά συμβόλαια, η εταιρεία έχει σχεδιάσει συγκεκριμένες γραμμές γύρω από συγκεκριμένες εφαρμογές, ιδίως εκείνες που περιλαμβάνουν αυτόνομη θανατηφόρα δύναμη χωρίς σημαντικό ανθρώπινο έλεγχο και προγράμματα μαζικής επιτήρησης που στοχεύουν στον εγχώριο πληθυσμό.

Η θέση της εταιρείας αντανακλά μια ευρύτερη συζήτηση στη βιομηχανία AI σχετικά με το πού να τραβήξει τα ηθικά όρια. Άλλες μεγάλες εταιρείες AI, συμπεριλαμβανομένων του OpenAI και του Google, έχουν επίσης ασχοληθεί με αμυντικά συμβόλαια, αν και οι περισσότερες ήταν πιο πρόθυμες να διαπραγματευτούν τους όρους συμμετοχής με αμυντικές υπηρεσίες. Η πιο σκληρή θέση της Anthropic την έχει κάνει αστραπόρραπτη στην ολοένα πιο επιθετική προσπάθεια της Ουάσιγκτον να οπλίσει την τεχνητή νοημοσύνη.

Το Defense Production Act: Ένα ασυνήθιστο όπλο

Το Defense Production Act υπογράφηκε σε νόμο το 1950, κατά τα πρώτα στάδια του Πολέμου της Κορέας. Ο αρχικός σκοπός του ήταν απλός: διασφαλίσετε ότι η αμερικανική βιομηχανία θα μπορούσε να αλλάξει γρήγορα την παραγωγή για να υποστηρίξει τις στρατιωτικές ανάγκες. Κατά τη διάρκεια των δεκαετιών, έχει εμπλακεί για τα πάντα από την κατασκευή ημιαγωγών έως τις αλυσίδες εφοδιασμού ιατρικών προϊόντων κατά την πανδημία.

Αλλά η εφαρμογή του DPA για να αναγκάσει μια εταιρεία AI να παραχωρήσει πρόσβαση στα μοντέλα της αντιπροσωπεύει έναν θεμελιωδώς διαφορετικό τύπο παρέμβασης. Σε αντίθεση με τα φυσικά προϊόντα, τα AI μοντέλα είναι διανοητική ιδιοκτησία της οποίας οι δυνατότητες και οι κίνδυνοι είναι βαθιά διαπλεγμένα. Η εξαναγκασμός μιας εταιρείας να αφαιρέσει τις προστασίες ασφάλειας από την τεχνολογία της δημιουργεί ερωτήματα που αποδεικνύονται πολύ πέρα από τις παραδοσιακές διαφορές συγκατάλεξης.

Νομικοί ειδικοί έχουν σημειώσει ότι μια τέτοια χρήση του DPA θα αντιμετωπίσει πιθανώς άμεσες νομικές προκλήσεις. Ο νόμος ήταν προορισμένος για προτεραιότητες παραγωγής και αλυσίδας εφοδιασμού, όχι για την παράκαμψη της εσωτερικής πολιτικής ασφάλειας μιας εταιρείας σχετικά με τον τρόπο ανάπτυξης της τεχνολογίας της. Οποιαδήποτε προσπάθεια να της δοθεί εφαρμογή θα μπορούσε να θέσει ένα προηγούμενο με εκτεταμένες συνέπειες για ολόκληρο τον τεχνολογικό τομέα.

Αντιδράσεις της βιομηχανίας και ευρύτερες συνέπειες

Η σύγκρουση έχει στείλει κραδασμούς μέσω του Silicon Valley. Άλλες εταιρείες AI παρακολουθούν στενά, ενώ γνωρίζουν ότι το αποτέλεσμα θα μπορούσε να θέσει νέα πρότυπα για τον τρόπο αλληλεπίδρασης της κυβέρνησης με τον ιδιωτικό τομέα AI. Πολλοί ηγέτες της βιομηχανίας έχουν ιδιωτικά εκφράσει ανησυχία ότι η υποχώρηση στις απαιτήσεις του Πενταγώνου θα μπορούσε να υπονομεύσει την έρευνα ασφάλειας που πολλοί θεωρούν ουσιώδη για την αποτροπή καταστροφικής κατάχρησης AI.

Οι απαντήσεις του Κογκρέσου ήταν μικτές. Οι δαίμονες στις επιτροπές ενόπλων υπηρεσιών υποστήριξαν τη θέση του Hegseth, υποστηρίζοντας ότι η εθνική ασφάλεια πρέπει να έχει προτεραιότητα ως προς τις προτιμήσεις της εταιρικής ασφάλειας. Άλλοι, ιδίως μέλη της Επιτροπής Εμπορίου της Γερουσίας, έχουν προειδοποιήσει ότι το strong-arming στις εταιρείες AI θα μπορούσε να οδηγήσει τα ταλέντα και την καινοτομία στο εξωτερικό, αποδυναμώνοντας τελικά τη θέση του ανταγωνισμού των ΗΠΑ.

Η Ευρωπαϊκή Ένωση έχει επίσης λάβει ειδοποίηση. Ενώ οι ευρωπαϊκοί αξιωματούχοι έχουν επιλέξει τη σύγκρουση ως στοιχείο που υποστηρίζει τη δική τους πολύ κανονιστική προσέγγιση στη διακυβέρνηση AI, ένας ανώτερος διπλωμάτης σημείωσε ότι το επεισόδιο τονίζει τους κινδύνους της τοποθέτησης αποφάσεων ασφάλειας AI στη δική των ευχέρειας των πολιτικών που διορίστηκαν.

Τι θα συμβεί στη συνέχεια

Η προθεσμία της Παρασκευής πλησιάζει. Εάν η Anthropic αρνηθεί να συμμορφωθεί, ο Hegseth θα μπορούσε να δεχθεί στην απειλή του να αφαιρέσει την εταιρεία από τα κανάλια άμυνας απόκτησης, κόβοντας μια σημαντική ροή εσόδων και στέλνοντας μήνυμα σε άλλες εταιρείες AI. Η επιλογή Defense Production Act παραμένει στο τραπέζι αλλά θα αντιπροσωπεύσει μια πολύ πιο δραματική κλιμάκωση με αβέβαιες νομικές συνέπειες.

Για την Anthropic, η υπολογισμός είναι υπαρξιακή. Η παράδοση θα μπορούσε να υπονομεύσει τις αρχές ασφάλειας που ορίζουν την εταιρική ταυτότητά της και να διαβρώσει την εμπιστοσύνη των υπαλλήλων που ένα πρόσφατα γιατί τη δέσμευση της ασφάλειας της εταιρείας. Η αντίσταση θα μπορούσε να κοστίσει στην εταιρεία όχι μόνο κυβερνητικά συμβόλαια αλλά και πολιτική καλής θέλησης σε μια εποχή κατά την οποία ο κανονισμός AI διαμορφώνεται ενεργά στην Ουάσιγκτον.

Όσο και αν είναι το αποτέλεσμα, η σύγκρουση έχει κάνει κάτι σαφές: ο ημερήσιος κηθαρός μεταξύ εταιρειών AI και κυβέρνησης έχει τελειώσει. Η εποχή της έντιμης συνεργασίας στη νέα πολιτική υποχωρεί σε μέρη πληρώνονται σκληρών διαπραγματεύσεων όπου οι κίνδυνοι μετρώνται όχι σε τριμηνιαία κέρδη αλλά σε θεμελιώδη ερωτήματα σχετικά με τον τρόπο διακυβέρνησης της ισχυρότερης τεχνολογίας στην ιστορία της ανθρωπότητας.

Το άρθρο αυτό βασίζεται στις αναφορές της Ars Technica. Διαβάστε το αρχικό άρθρο.