תאריך סיום ביום שישי וכיתות קרות על אתיקה AI

Anthropic, חברת בטיחות AI שעומדת מאחורי משפחת מודלים שפתיים Claude, עומדת מול עימות חריג עם משרד ההגנה של ארה"ב. לפי דיווחים, ה-Pentagon דרש כי Anthropic תירפה את ההגבלות שלה על יישומים צבאיים של הטכנולוגיה AI שלה — במיוחד את האיסורים על שימוש במערכות נשק אוטונומיות וסיגור המוני. Anthropic סירבה, וה-Pentagon הגיב בהוראה להשתמש בחוק ייצור הגנה, חוק מימי המלחמה הקרה המאפשר לממשלה לכפות על חברות פרטיות להעניק עדיפות לייצור הגנה לאומית.

החברה קיבלה הודעה עד ליום שישי כדי להתאים. אם Anthropic תמשיך בסירובה, Pentagon עשויה לכפות בחוק על החברה לספק גישה ליכולות AI שלה למטרות צבאיות, ויצור עימות משפטי ואתי ללא תקדים ברור בתעשיית AI.

מה הגבילה Anthropic

מאז הקמתה, Anthropic שומרת על מדיניות שימוש קבילה המחרימה בבירור שימוש בדגמי AI שלה לנשקים אוטונומיים, סיגור המוני וישומים אחרים שהחברה רואה כלא תואמים עם המשימה שלה של פיתוח AI בבטחה. הגבלות אלה אינן יוצאות דופן בתעשיית AI — רוב חברות ה-AI הגדולות בעלות מדיניות דומות — אך Anthropic הוא במיוחד קולני בנושא התחייבותה לבטיחות AI כעקרון ארגוני ליבה.

החברה הוקמה על ידי חוקרים לשעבר של OpenAI Dario ו-Daniela Amodei, בחלקו בגלל חשש לפני קצב וגוברנציה של פיתוח AI. זהותו של המותג בנויה סביב פיתוח AI אחראי, וההשקעה שלו במחקר יישור וניתן להבנה AI מעמיד אותו כמנהיג בגישה בטיחות ראשונה ללמידה מכונה. ההסתגרות מהגבלות צבאיות תחתור את הנרטיב הבסיסי של החברה.

איום חוק ייצור הגנה

חוק ייצור הגנה, חתום בחוק בשנת 1950 במהלך מלחמת קוריאה, נותן לנשיא סמכויות רחבות להנחות תעשיית פרטית להעניק עדיפות לחוזים והזמנות הנחשבות לנחוצות להגנה לאומית. זה הופעל מעת לעת לעוד מטרות שונות — לאחרונה במהלך מגפת COVID-19 לכפיית ייצור של אספקה רפואית — אך השימוש בו לכפיית חברת AI לספק את הטכנולוגיה שלה ליישומים צבאיים ייצוג יישום ללא תקדים של החוק.

מומחים משפטיים מתחלקים בדעה האם בעלויות כזאת תעמוד בבדיקה שיפוטית. ה-DPA תוכנן לייצור של סחורות פיזיות — פלדה, תחמוצות, ציוד רפואי — לא לכפיית חברת תוכנה לשנות את תנאי השירות שלה. השאלה האם גישה למודלים AI מהווה "מוצר" שניתן לתפוס תחת החוק מעלה שאלות משפטיות חדשות שבתי משפט עדיין לא התעסקו בהן.

  • Pentagon דורשת מ-Anthropic להסיר הגבלות על שימוש AI בנשקים אוטונומיים וסיגור
  • Anthropic סירבה, מצטטת את התחייבותה הבסיסית לעקרונות בטיחות AI
  • משרד ההגנה מאיים להשתמש בחוק ייצור הגנה עד ליום שישי
  • מומחים משפטיים מטילים ספק האם ה-DPA יכול לכפות על חברת תוכנה לשנות את המדיניות שלה
  • העימות יכול לקבוע תקדים לסמכות ממשלתית על חברות AI

השלכות תעשייתיות

העימות בין Anthropic ל-Pentagon משדר גלי הלם בכל תעשיית AI שנווטת קשרים הולכים ומסתבכים עם סוכנויות ביטחון לאומי. ל-Google, Microsoft, Amazon ו-OpenAI כולם חוזים הגנה משמעותיים, וכל אחד נתקל בלחץ פנימי וחיצוני על יישומים צבאיים של טכנולוגיה שלהם. Google נודעה שהסתלקה מ-Project Maven, תוכנית Pentagon AI, לאחר מחאות עובדים בשנת 2018, אם כי החברה הרחיבה מאז את עבודת ההגנה שלה.

אם חוק ייצור הגנה ישמש בהצלחה נגד Anthropic, היא תקבע קדימון כי כל חברת AI הפועלת בארה"ב יכולה להיות מכופה לספק את הטכנולוגיה שלה למטרות צבאיות ללא קשר לנחיות האתיות שלה. הסכנה זו יכולה להקפיא מחקר בטיחות AI, לדחוף חברות ממוקדות בטיחות להעביר מחדש מחוץ לתחום השיפוט של ארה"ב, או ליצור תעשייה מפוצלת שבה חברות חייבות לבחור בין חוזים ממשלתיים להתחייבויות בטיחות.

לעומת זאת, אם Anthropic בהצלחה תתנגד להזמנה — בין באמצעות אתגר משפטי או משא ומתן פוליטי — זה יכול להחזק את העיקרון כי חברות AI יש זכות להציב גבולות אתיים על אופן השימוש בטכנולוגיה שלהם, גם כאשר הלקוח הוא הממשלה של ארה"ב.

המתח הרחב יותר

העימות משקף מתח בסיסי שגדל מאז דגמים שפתיים גדולים ומערכות AI מתקדמות אחרות החלו להציג יכולות עם יישומים צבאיים ברורים. ממשלת ארה"ב רואה בנטראליות AI כחיונית לביטחון לאומי, בעיקר בתחרות עם סין, המשקיעה משאבים ביישומי AI צבאיים עם פחות מגבלות אתיות. מנקודת המבט של Pentagon, מתן אפשרות לחברת AI מובילה להתייצב מהיישומים הגנתיים הוא יוקרה שהאומה לא יכולה להרשות לעצמה.

מנקודת המבט של Anthropic, ההגבלות קיימות בדיוק משום שהחברה מאמינה כי יישום צבאי בלתי מעוכב של מערכות AI חזקות יוצר סיכונים קטסטרופליים — סיכונים שלא מתמוששו על ידי העובדה שהמשתמש לובש כזי צבא אמריקני. עמדתה של החברה היא שחלק מהיישומים של AI מסוכנים מדי בשביל לאפשר, ללא קשר למי שמבקש.

האופן שבו עימות זה מתפתח כנראה יעצב את ההתייחסות בין תעשיית AI לממשלת ארה"ב במשך השנים הקרובות. זהו מקרה בדיקה לשאלה האם התחייבויות בטיחות AI יכולות להתנגד למשיכה הגרביטציונית של נחיצויות ביטחון לאומי — וחובה שתשתמש בממשלה בכלים המשפטיים החזקים ביותר שלה כדי להבטיח שהם לא יוכלו.

מאמר זה מבוסס על דיווח של The Decoder. קרא את המאמר המקורי.