Α Προθεσμία Παρασκευής και ένας Ψυχρός Πόλεμος για την Ηθική της AI
Η Anthropic, η εταιρεία ασφάλειας AI πίσω από την οικογένεια μοντέλων γλώσσας Claude, αντιμετωπίζει μια ασυνήθιστη σύγκρουση με το Υπουργείο Άμυνας των ΗΠΑ. Σύμφωνα με τις αναφορές, το Pentagon έχει ζητήσει από την Anthropic να χαλαρώσει τους περιορισμούς της στις στρατιωτικές εφαρμογές της τεχνολογίας AI της — ειδικά τις απαγορεύσεις στη χρήση σε αυτόνομα συστήματα όπλων και μαζική επιτήρηση. Η Anthropic έχει αρνηθεί, και το Υπουργείο Άμυνας έχει απαντήσει με απειλή να επικαλεστεί τον Νόμο Παραγωγής Άμυνας, ένα νόμο της εποχής του Ψυχρού Πολέμου που επιτρέπει στην κυβέρνηση να αναγκάσει τις ιδιωτικές εταιρείες να δώσουν προτεραιότητα στην εθνική παραγωγή άμυνας.
Η εταιρεία έχει δοθεί προθεσμία έως την Παρασκευή για συμμόρφωση. Εάν η Anthropic παραμείνει ανυπάκουη, το Pentagon θα μπορούσε νομικά να αναγκάσει την εταιρεία να παρέχει πρόσβαση στις δυνατότητές της AI για στρατιωτικούς σκοπούς, δημιουργώντας μια νομική και ηθική σύγκρουση χωρίς ξεκάθαρο προηγούμενο στην βιομηχανία AI.
Τι Έχει Περιορίσει η Anthropic
Από την ίδρυσή της, η Anthropic διατηρεί μια πολιτική αποδεκτής χρήσης που ρητά απαγορεύει τη χρήση των μοντέλων AI της για αυτόνομα όπλα, μαζική επιτήρηση και άλλες εφαρμογές που η εταιρεία θεωρεί ασύμβατες με την αποστολή της να αναπτύξει ασφαλή AI. Αυτοί οι περιορισμοί δεν είναι ασυνήθιστοι στη βιομηχανία AI — οι περισσότερες μεγάλες εταιρείες AI έχουν παρόμοιες πολιτικές — αλλά η Anthropic έχει ήσαν ιδιαίτερα ηχηρή σχετικά με τη δέσμευσή της για ασφάλεια AI ως βασική οργανωτική αρχή.
Η εταιρεία ιδρύθηκε από τους πρώην ερευνητές της OpenAI Dario και Daniela Amodei, εν μέρει λόγω ανησυχιών σχετικά με το ρυθμό και τη διακυβέρνηση της ανάπτυξης AI. Η ταυτότητα της μάρκας της είναι κατασκευασμένη γύρω από την υπεύθυνη ανάπτυξη AI, και η έρευνά της σχετικά με τη στοίχιση και την ερμηνευσιμότητα AI την τοποθετεί ως ηγέτιδα στην προσέγγιση που δίνει προτεραιότητα στην ασφάλεια για την τεχνητή νοημοσύνη. Η υποχώρηση από τους στρατιωτικούς περιορισμούς θα υπονόμευε τη θεμελιώδη αφήγηση της εταιρείας.
Η Απειλή του Νόμου Παραγωγής Άμυνας
Ο Νόμος Παραγωγής Άμυνας, που υπογράφηκε το 1950 κατά τη διάρκεια του Πολέμου της Κορέας, δίνει στον πρόεδρο ευρεία εξουσία να κατευθύνει την ιδιωτική βιομηχανία να δώσει προτεραιότητα σε συμβάσεις και παραγγελίες που θεωρούνται απαραίτητες για την εθνική άμυνα. Έχει επικληθεί περιοδικά για διάφορους σκοπούς — πλέον πρόσφατα κατά τη διάρκεια της πανδημίας COVID-19 για να αναγκάσει την παραγωγή ιατρικών προμηθειών — αλλά η χρήση του για να αναγκάσει μια εταιρεία AI να παρέχει τη τεχνολογία της για στρατιωτικές εφαρμογές θα αντιπροσώπευε μια χωρίς προηγούμενο εφαρμογή του νόμου.
Οι νομικοί ειδικοί διαφωνούν σχετικά με το εάν μια τέτοια επίκληση θα αντέχει την δικαστική αναθεώρηση. Το DPA σχεδιάστηκε για την κατασκευή φυσικών αγαθών — χάλυβα, πυρομαχικών, ιατρικού εξοπλισμού — όχι για να αναγκάσει μια εταιρεία λογισμικού να αλλάξει τους όρους υπηρεσίας της. Το ερώτημα του εάν η πρόσβαση στα μοντέλα AI αποτελεί ένα "προϊόν" που μπορεί να δημιουργηθεί σύμφωνα με το νόμο εγείρει νέα νομικά ερωτήματα που τα δικαστήρια δεν έχουν ακόμη αντιμετωπίσει.
- Το Pentagon ζητά από την Anthropic να αφαιρέσει τους περιορισμούς στη χρήση AI σε αυτόνομα όπλα και επιτήρηση
- Η Anthropic αρνήθηκε, επικαλούμενη τη θεμελιώδη δέσμευσή της στις αρχές ασφάλειας AI
- Το Υπουργείο Άμυνας απειλεί να επικαλεστεί τον Νόμο Παραγωγής Άμυνας έως την Παρασκευή
- Οι νομικοί ειδικοί αμφισβητούν εάν το DPA μπορεί να αναγκάσει μια εταιρεία λογισμικού να αλλάξει τις πολιτικές της
- Η σύγκρουση θα μπορούσε να θέσει προηγούμενο για την κυβερνητική εξουσία πάνω από τις εταιρείες AI
Επιπτώσεις στη Βιομηχανία
Η σύγκρουση μεταξύ Anthropic και Pentagon στέλνει κύματα σοκ σε μια βιομηχανία AI που πλοηγείται μια ολοένα πολυπλοκότερη σχέση με τις υπηρεσίες εθνικής ασφάλειας. Η Google, Microsoft, Amazon και OpenAI έχουν όλες σημαντικές συμβάσεις άμυνας, και το καθένα έχει αντιμετωπίσει εσωτερική και εξωτερική πίεση για τις στρατιωτικές εφαρμογές της τεχνολογίας του. Η Google περίφημη αποχώρησε από το Project Maven, ένα πρόγραμμα AI του Pentagon, μετά τις διαμαρτυρίες των υπαλλήλων το 2018, αν και η εταιρεία έχει προεκτείνει το έργο άμυνας της.
Εάν ο Νόμος Παραγωγής Άμυνας χρησιμοποιηθεί με επιτυχία κατά της Anthropic, θα θέσει προηγούμενο ότι οποιαδήποτε εταιρεία AI που λειτουργεί στις ΗΠΑ θα μπορούσε να αναγκαστεί να παρέχει τη τεχνολογία της για στρατιωτικούς σκοπούς ανεξάρτητα από τις δικές της ηθικές κατευθυντήριες γραμμές. Αυτή η προοπτική θα μπορούσε να παγώσει την έρευνα ασφάλειας AI, να αναγκάσει τις εταιρείες που εστιάζονται στην ασφάλεια να μετακομίσουν έξω από τη δικαιοδοσία των ΗΠΑ ή να δημιουργήσει μια διχασμένη βιομηχανία όπου οι εταιρείες πρέπει να επιλέξουν μεταξύ κυβερνητικών συμβάσεων και δεσμεύσεων ασφάλειας.
Αντίθετα, εάν η Anthropic αντισταθεί με επιτυχία στην εντολή — είτε μέσω νομικής πρόκλησης είτε πολιτικών διαπραγματεύσεων — θα μπορούσε να ενισχύσει την αρχή ότι οι εταιρείες AI έχουν το δικαίωμα να θέσουν ηθικά όρια στο πώς χρησιμοποιείται η τεχνολογία τους, ακόμη και όταν ο πελάτης είναι η κυβέρνηση των ΗΠΑ.
Η Ευρύτερη Τάση
Η σύγκρουση αντανακλά μια θεμελιώδη τάση που έχει οικοδομηθεί από τότε που τα μεγάλα μοντέλα γλώσσας και άλλα προηγμένα συστήματα AI άρχισαν να παρουσιάζουν δυνατότητες με σαφή στρατιωτικές εφαρμογές. Η κυβέρνηση των ΗΠΑ θεωρεί την κυριαρχία της AI ως ουσιώδη για την εθνική ασφάλεια, ιδιαίτερα στον ανταγωνισμό με την Κίνα, η οποία χύνει πόρους σε στρατιωτικές εφαρμογές AI με λιγότερους ηθικούς περιορισμούς. Από την οπτική γωνία του Pentagon, το να επιτραπεί σε μια κορυφαία εταιρεία AI να εξαιρεθεί από τις εφαρμογές άμυνας είναι ένα είδος πολυτέλειας που η χώρα δεν μπορεί να αποδώσει.
Από την οπτική γωνία της Anthropic, οι περιορισμοί υπάρχουν ακριβώς επειδή η εταιρεία πιστεύει ότι η ανεπιτήδευτη στρατιωτική εφαρμογή των ισχυρών συστημάτων AI δημιουργεί καταστροφικούς κινδύνους — κινδύνους που δεν εξαλείφονται απλώς επειδή ο χρήστης φορά ένα αμερικανικό ομοίωμα. Η θέση της εταιρείας είναι ότι ορισμένες εφαρμογές AI είναι πολύ επικίνδυνες για να ενεργοποιηθούν, ανεξάρτητα από το ποιος ζητά.
Ο τρόπος με τον οποίο λύνεται αυτή η σύγκρουση θα καθορίσει πιθανώς τη σχέση μεταξύ της βιομηχανίας AI και της κυβέρνησης των ΗΠΑ για τα επόμενα χρόνια. Είναι ένα δοκιμαστικό παράδειγμα για το εάν οι δεσμεύσεις ασφάλειας AI μπορούν να αντισταθούν στη βαρυτική έλξη των υποχρεώσεων εθνικής ασφάλειας — και εάν η κυβέρνηση θα χρησιμοποιήσει τα ισχυρότερα νομικά της εργαλεία για να διασφαλίσει ότι δεν μπορούν.
Αυτό το άρθρο βασίζεται σε αναφορές του The Decoder. Διαβάστε το αρχικό άρθρο.




