
AI & Robotics
Anthropic ने Claude को लक्षित करने वाले औद्योगिक पैमाने पर AI मॉडल आसवन की चेतावनी दी
Anthropic ने अपने Claude AI मॉडल के खिलाफ औद्योगिक पैमाने पर आसवन हमलों के बारे में चेतावनी दी है, जहां प्रतिद्वंद्वी और तीसरे पक्ष सिस्टमेटिक रूप से Claude को क्वेरी करते हैं ताकि मूल विकास लागत के एक अंश पर सस्ती प्रतिद्वंद्वी प्रणाली को प्रशिक्षित करने के लिए प्रशिक्षण डेटा निकाले जा सकें। यह खुलासा AI कंपनियों की बौद्धिक संपत्ति और व्यावसायिक मॉडल के लिए बढ़ते खतरे को उजागर करता है।
Key Takeaways
- Anthropic ने Claude को व्यवस्थित रूप से लक्षित करने वाले "औद्योगिक पैमाने" के आसवन हमलों का खुलासा किया
- आसवन प्रशिक्षण लागत के 1% से कम पर एक मॉडल के कार्य प्रदर्शन का 80-90% दोहरा सकता है
- हमलें हजारों API खातों में वितरित किए जाते हैं, जिससे पहचान मुश्किल होती है
- AI मॉडल आउटपुट को सुरक्षित करने के लिए कानूनी ढांचा अभी भी कम विकसित है
- API पहुंच और बौद्धिक संपत्ति सुरक्षा के बीच मौलिक तनाव को उजागर करता है
DE
DT Editorial AI··via artificialintelligence-news.com