Google தனது TPU திட்டத்தை inference மற்றும் training இடையே பிரிக்கிறது
Google இரண்டு சிறப்பாக வடிவமைக்கப்பட்ட எட்டாம் தலைமுறை TPU வடிவமைப்புகளை அறிமுகப்படுத்தியுள்ளது. AI கட்டமைப்பின் அடுத்த கட்டத்தை சிந்தித்து, திட்டமிட்டு, பல படிநிலைகளைக் கொண்ட பணிகளை நிறைவேற்றும் சுயாதீன agents வடிவமைக்கும் என்று அது வாதிடுகிறது. Google blog-இல் வெளியான பதிவில், TPU 8i AI agents தங்களது பணிகளை ஒரு நல்ல user experience-ஐ காக்கும் அளவுக்கு வேகமாக முடிக்க உதவுவதற்காக உருவாக்கப்பட்டதாகவும், TPU 8t training-க்கு ஒப்புநிலைப் படுத்தப்பட்டதாகவும், மிகப் பெரிய memory pool ஒன்றில் மிகச் சிக்கலான models-ஐ இயக்கக்கூடியதாகவும் நிறுவனம் கூறுகிறது.
இந்த அறிவிப்பு புதிய chips வெளியிடப்படுவதால் மட்டுமல்ல, அவற்றை ஒரு புதிய workload narrative-இன் சுற்றிலும் தெளிவாக அமைத்துள்ளதாலும் குறிப்பிடத்தக்கது. பல ஆண்டுகளாக AI accelerator விவாதங்கள் training மற்றும் inference என்ற பாரம்பரிய பிரிவை மையமாகக் கொண்டிருந்தன. Google அந்த வேறுபாட்டைத் தொடர்கிறது; ஆனால் inference பக்கத்தின் ஒரு பகுதியை conventional model serving-க்கு பதிலாக agents சுற்றிலும் மறுவடிவமைக்கிறது. இதனால் எதிர்கால தேவை தனித்தனி prompt-response interations-ஐ விட, பயனர்களின் சார்பில் தொடர் செயல்களை மேற்கொள்ளும் systems மீது இருக்கும் என நிறுவனம் நம்புவதாகத் தெரிகிறது.
ஏன் இரண்டு சிறப்பாக்கப்பட்ட TPUs
Google-ன் விளக்கம் ஒரு எளிய premise-ஐ முன்வைக்கிறது: agentic AI-இன் infrastructure தேவைகள் frontier model training-ன் தேவைகளுடன் ஒன்றல்ல. Agents-க்கு responsiveness தேவை. அவர்கள் பணிகளைப் பற்றி reasoning செய்ய, tools-ஐ call செய்ய, workflows-ஐ complete செய்ய வேண்டும் என்றால் latency தான் அனுபவம் பயனுள்ளதாகத் தோன்றுமா என்பதை நிர்ணயிக்கும் முக்கியக் காரணி. Google-ன் விளக்கப்படி TPU 8i அதற்காகவே பொருந்துகிறது. நடைமுறை deployment-ஐ ஆதரிக்கும் அளவுக்கு அந்த தொடர்புகள் வேகமாக இருக்க இது வடிவமைக்கப்பட்டுள்ளது.
TPU 8t வேறொரு சிக்கலைத் தீர்க்கிறது. மேம்பட்ட models-ஐ பயிற்சி செய்வதற்கு raw compute மட்டுமன்றி, பெரிதும் சிக்கலான systems-ஐ தாங்கக்கூடிய memory capacity-யும் தேவைப்படுகிறது. TPU 8t இந்த வேலையுக்காக அமைக்கப்பட்டதாகவும், ஒரே பெரிய memory pool-இல் மிகவும் சிக்கலான models-ஐ இயக்கக்கூடியதாகவும் Google கூறுகிறது. இது infrastructure-ஐ அதிகமாக துண்டாக்காமல் scale-ஐ உயர்த்த முயலும் developers மற்றும் organizations-க்கு இந்த chip-ஐ ஒரு கருவியாக நிலைநிறுத்துகிறது.
பெரிய stack-ும் செய்தியின் ஒரு பகுதிதான்
Google chips-ஐ தனது full-stack infrastructure கதைக்குள் கவனமாக இணைக்கிறது. blog post புதிய TPUs-ஐ networking, data centers, energy-efficient operations ஆகியவற்றுடன் இணைத்து, மிகுந்த பதிலளிப்பு கொண்ட agentic AI-ஐ பெரும் அளவிலான பயனர்களிடம் கொண்டு செல்லும் engine ஆக அந்த அமைப்பை விவரிக்கிறது. இந்த framing முக்கியமானது; ஏனெனில் AI infrastructure-இல் போட்டி இப்போது chip மட்டும் அல்ல. அது silicon, software, networking, power efficiency ஆகியவற்றை ஒருங்கிணைத்த, பெரிய அளவில் வாங்கி deploy செய்யக்கூடிய platform-ஆக மாறியுள்ளது.
Google-க்கு இது நீண்ட காலமாக வலியுறுத்த விரும்பும் ஒரு மூலோபாய நன்மை. நிறுவனம் accelerator access-ஐ மட்டும் விற்பதில்லை. அது custom chips-ஐ cloud services மற்றும் பெரும் அளவிலான machine learning systems-ஐ ஆண்டுகளாக இயக்கியுள்ள உள் அனுபவத்துடன் இணைத்த vertically integrated சூழலை முன்வைக்கிறது.
நடைமுறையில் “agentic” என்பதன் சுட்டுரை
“agentic era” என்ற சொல்லின் பயன்பாடு itself revealing. AI companies increasingly promote systems that can do more than generate text or images on request. The aspiration is software that can plan, decide and execute across multiple steps, often with access to tools or enterprise workflows. Whether or not every marketed “agent” lives up to that description, infrastructure providers clearly see the category as commercially important enough to shape hardware roadmaps.
TPU 8i-ஐ agents-க்கு உகந்த chip என்று பெயரிட்டதன் மூலம், Google சிக்கலான, பல நிலை workloads-இல் responsiveness ஒரு வரையறுக்கும் performance metric ஆக மாறும் என்று நம்புகிறது. அது peak benchmark numbers-ஐப் போலவே முக்கியமாக இருக்கலாம். உண்மையான பயன்பாட்டில், மெதுவாக செயல்படும் அல்லது chained tasks-இல் தடுமாறும் ஒரு agent, underlying model வலுவாக இருந்தாலும், செயலிழந்தது போலத் தோன்றலாம்.
இந்த launch ஏன் முக்கியம்
பொதுப் பயன்பாட்டு GPU demand உரையாடலை ஆதிக்கம் செலுத்திய காலத்திற்குப் பிறகு, AI hardware மீண்டும் வேகமாக சிறப்பாக்கம் அடைவதை இந்த அறிவிப்பு உறுதிப்படுத்துகிறது. சந்தை இப்போது தனித்த தேவைகளின் அடிப்படையில் பிரிகிறது: giant models-ஐ training செய்வது, அவற்றை மலிவாக சேவை செய்வது, multimodal workloads-ஐ கையாளுவது, interactive agent systems-ஐ இயக்குவது. Google-ன் புதிய TPU ஜோடி அந்த fragmentation-ஐ பிரதிபலிக்கிறது.
இது infrastructure messaging எவ்வாறு வளர்ந்துள்ளது என்பதையும் காட்டுகிறது. Chip launches இனி speedups அல்லது throughput gains மட்டும் வைத்து முன்வைக்கப்படுவதில்லை. AI எப்படிப் பயன்படுத்தப்படும் என்பதைப் பற்றிய குறிப்பிட்ட காட்சிகளுடன் அவை இணைக்கப்படுகின்றன. இந்த நிகழ்வில், agents பயனர்களின் சார்பில் செயல்படும், அந்த systems-ன் training-க்கும் அவற்றின் வேகமான real-time execution-க்கும் அடித்தள infrastructure purpose-built ஆக இருக்கும் ஒரு உலகத்தை வாடிக்கையாளர்கள் கற்பனை செய்ய Google விரும்புகிறது.
அந்த காட்சி சரியாக இருந்தால், TPU 8i மற்றும் TPU 8t சாதாரண generation update-களை விட, AI demand அடுத்ததாக எந்த திசை நோக்கிச் செல்கிறது என்பதற்கான architectural statement ஆக இருக்கும்.
இந்தக் கட்டுரை Google AI Blog-இன் அறிக்கையை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.
Originally published on blog.google
