நோக்கத்திற்கேற்ப உருவாக்கப்பட்ட AI hardware-க்கான வாதத்தை Google முன்வைக்கிறது
Google மீண்டும் ஒரு செய்தியை வலியுறுத்துகிறது; அது AI துறையில் மேலும் மையமாகி வருகிறது: மேம்பட்ட மாடல்கள் இனி வெறும் software கதை மட்டும் அல்ல. அவை hardware கதைவும் ஆகும், மேலும் specialized compute infrastructure-ஐ வடிவமைக்கவும், இயக்கவும், அளவுபடுத்தவும் முடியும் நிறுவனங்கள் ஒரு கட்டமைப்பு முன்னிலையைப் பெறக்கூடும். தனது Tensor Processing Units, அல்லது TPUs-ஐ முன்னிறுத்தும் புதிய விளக்கத்தில், Google கூறுவதாவது, அதன் பல products-களின் பின்னால் இருக்கும் custom chips தொடக்கம் முதலே ஒரு குறிப்பிட்ட நோக்கத்திற்காக வடிவமைக்கப்பட்டவை: AI systems-க்குத் தேவைப்படும் மிகப்பெரிய கணிதப் பணிகளைச் செய்ய.
இந்த framing முக்கியமானது, ஏனெனில் artificial intelligence சுற்றியுள்ள போட்டி விவாதம் மாறி வருகிறது. Raw model quality இன்னும் கவனத்தை ஈர்க்கிறது; ஆனால் அதிக தேவையுள்ள வேலைப்பாடுகளை திறமையாக சேவை செய்யும் திறன் அதே அளவு முக்கியமாகிவிட்டது. frontier systems-ஐ பயிற்றுவிப்பது, புதிய பணிகளுக்காக அவற்றை fine-tune செய்வது, மற்றும் பயனர்களுக்காக அவற்றை தொடர்ந்து இயக்குவது ஆகியவை அனைத்தும் high-performance compute அணுகலையே சார்ந்துள்ளன. ஆகவே Google-ன் சமீபத்திய TPU செய்தி வெறும் கல்வி சார்ந்த branding அல்ல. உள்கட்டமைப்பு போட்டியில் தனது நிலையை சந்தை எவ்வாறு புரிந்துகொள்ள வேண்டும் என்பதைப் பற்றிய ஒரு அறிவிப்பாகும்.
Google-ன் strategy-யில் TPUs ஏன் முக்கியம்
நிறுவனத்தின் படி, TPUs ஒரு தசாப்தத்திற்கு மேலாக முன்பே AI models-ஐ இயக்குவதற்காகவே வடிவமைக்கப்பட்டன. இந்த நீண்ட காலக்கோடு முக்கியமானது. இது Google-ன் chip முயற்சி generative AI boom-க்கு சமீபத்திய பதில் அல்ல, மாறாக தற்போதைய demand wave-க்கு முன்பே செய்யப்பட்ட முதலீடு என்பதைச் சுட்டிக்காட்டுகிறது. நடைமுறை ரீதியில், custom silicon Google-க்கு மிக முக்கியமானதாகக் கருதும் வேலைப்பாடுகளை மையமாக வைத்து optimize செய்யும் வழியை வழங்குகிறது; முழுவதும் பொதுப் பயன் processors-ஐ நம்புவதற்குப் பதிலாக.
அந்த value proposition-ஐ நிறுவனம் எளிய சொற்களில் சுருக்குகிறது: AI-க்கு மிகப்பெரிய அளவிலான mathematical operations தேவை, மேலும் TPUs அந்த math-ஐ மிக விரைவாக கையாளுமாறு வடிவமைக்கப்பட்டுள்ளன. செயல்திறன் குறித்த claims அடிக்கடி சுருக்கமானவையாக இருக்கும் ஒரு துறையில், Google தனது புதிய generation-இன் இரண்டு தெளிவான பண்புகளைக் காட்டுகிறது: 121 exaflops அளவிலான compute power மற்றும் முந்தைய generations-ஐ விட இரட்டிப்பு bandwidth. வழங்கப்பட்ட பொருளில் இவை தான் மிகத் தெளிவான signals, மற்றும் Google சாத்தியமான customers மற்றும் partners கவனம் செலுத்த வேண்டியவற்றை அவை காட்டுகின்றன.
Compute power ஒரு system எவ்வளவு வேலை செய்ய முடியும் என்பதை நிர்ணயிக்கிறது; bandwidth அந்த system-இல் data எவ்வளவு திறம்பட நகர முடியும் என்பதைப் பாதிக்கிறது. இரண்டுமே நவீன AI வேலைப்பாடுகளுக்கு முக்கியமானவை, குறிப்பாக models பெரிதாகவும் சிக்கலாகவும் ஆகும் போது. ஒரு தலைப்புச் சிறப்பு exaflop எண்ணிக்கையுடன் bandwidth மேம்பாட்டை இணைப்பதன் மூலம், Google speed மட்டுமல்ல, பெரிய model தேவைகளுக்கான overall system readiness-ஐயும் வாதிடுகிறது.
துறைச் சூழல்: AI வேலைப்பாடுகள் தொடர்ந்து கனமாகின்றன
Google-ன் செய்தி, உள்கட்டமைப்பு AI-யின் முக்கிய bottlenecks-இல் ஒன்றாக மாறியுள்ள நேரத்தில் வருகிறது. மேலும் பல அமைப்புகள் நுட்பமான models-ஐ உருவாக்கவோ deploy செய்யவோ விரும்புகின்றன, ஆனால் போதுமான compute-க்கு அணுகல் சமமற்றதும் விலையுயர்ந்ததும் ஆக உள்ளது. இந்த நிஜநிலை data centers, chip supply, networking, மற்றும் orchestration ஆகியவற்றை பின்னணி தொழில்நுட்ப விவரங்களிலிருந்து strategic issues-ஆக மாற்றியுள்ளது.
அந்த சூழலில், TPUs Google-க்கு ஒரே நேரத்தில் பல பங்குகளை வகிக்கின்றன. அவை நிறுவனத்தின் சொந்த products-ஐ இயக்குகின்றன, அதன் AI platform-இன் technical depth-ஐ வலுப்படுத்துகின்றன, மேலும் customers-க்கு AI வேலைப்பாடுகளுக்கான வேறுபட்ட தேர்வை வழங்கி அதன் cloud business-ஐ ஆதரிக்கின்றன. அறிவிப்பின் அமைப்பே இந்த overlap-ஐ பிரதிபலிக்கிறது: TPU explainer Google-ன் cloud மற்றும் AI infrastructure messaging-இன் பகுதியாக உள்ளது; குறுகிய semiconductor update ஆக அல்ல.
நிறுவனம் மேலும் TPUs “நீங்கள் தினமும் பயன்படுத்தும் Google products-களின் பின்னால்” இருப்பதாக விவரிக்கிறது. இது ஒரு நுணுக்கமான ஆனால் முக்கியமான positioning choice. chips-ஐ பரிசோதனைக்குரியவையாக அல்லது உயர்மட்ட ஆராய்ச்சி பயன்பாட்டுக்குள் மட்டுமே உள்ளதாக காட்டுவதற்குப் பதிலாக, Google அவற்றை mainstream services மற்றும் practical reliability-உடன் இணைக்கிறது. அதாவது custom AI compute ஏற்கனவே வழக்கமான product அனுபவங்களில் embedded ஆகிவிட்டது, அது வெறும் எதிர்கால பந்தயம் மட்டுமல்ல.
Performance claims ஒரு போட்டி மொழியாக மாறுகின்றன
TPUs பற்றி Google பேசும் விதமும் AI companies எவ்வாறு தொடர்புகொள்கின்றன என்பதில் ஏற்படும் பெரிய மாற்றத்தையும் பிரதிபலிக்கிறது. Model launches இன்னும் headlines-ஐ ஆளுகின்றன, ஆனால் infrastructure performance numbers இப்போது தங்களுக்கே உரிய strategic messaging வடிவமாக மாறிவருகின்றன. exaflops, bandwidth, chip generations குறித்த claims, தயார்நிலைக்கான சுருக்கச் சொற்களாக மாறுகின்றன: பெரிய systems-ஐ பயிற்றுவிக்கவும், மேலும் inference-ஐ இயக்கவும், bottlenecks பேராபத்தாக மாறாமல் மேலும் பல customers-ஐ ஆதரிக்கவும் தயாராக இருப்பதைக் குறிக்கின்றன.
TPUs-இன் புதிய generation மீது Google வைக்கும் emphasis இந்த pattern-க்கு பொருந்துகிறது. வழங்கப்பட்ட பொருளில் நிறுவனம் எல்லா architectural விவரங்களையும் வெளியிடவில்லை; ஆனால் ஒவ்வொரு generation-மும் அதன் platform ஆதரிக்கக்கூடியவற்றை விரிவாக்கவே intended என்று அது தெளிவான வாதம் செய்கிறது. முந்தைய generation-க்கு ஒப்பிடும்போது bandwidth-ஐ இரட்டிப்பாக்குவது குறிப்பாக குறிப்பிடத்தக்கது, ஏனெனில் AI performance கணிதத் திறனை மட்டும் அல்ல, வேலை செய்யும் compute units-க்கு data எவ்வளவு விரைவாக வழங்கப்படுகின்றது என்பதையும் சார்ந்துள்ளது.
அந்த வேறுபாடு consumer-facing AI விவாதங்களில் எளிதில் கவனிக்கப்படாமல் போகலாம். systems வேறு இடங்களில் கட்டுப்படுத்தப்பட்டிருந்தால், பெரிய எண்கள் மட்டும் நிஜ உலக throughput-ஐ மேம்படுத்தும் என்று உறுதி செய்யாது. bandwidth-ஐ நேரடியாகக் குறிப்பிடுவதன் மூலம், சந்தையின் கவனம் எளிய compute comparisons-ஐத் தாண்டி வளர்ந்துவிட்டதை Google உணர்ந்து செயல்படுகிறது என்பதைக் காட்டுகிறது.
AI சந்தைக்கு இதன் அர்த்தம்
பரந்த சந்தைக்குப் பார்த்தால், TPU push AI பற்றிய போராட்டம் முழு-stack integration மீது எவ்வளவு சார்ந்திருக்கலாம் என்பதைக் காட்டுகிறது. model development-ஐ custom hardware மற்றும் cloud delivery-உடன் இணைக்க முடியும் நிறுவனங்கள், standardised infrastructure-ஐ நம்பும் நிறுவனங்களைவிட cost, scale, performance ஆகியவற்றை சிறப்பாக நிர்வகிக்கக்கூடும். Google-ன் சமீபத்திய messaging தானாக superiority-ஐ நிரூபிப்பதில்லை; ஆனால் நிறுவனம் தனது leverage எங்கே உள்ளது என்று நம்புகிறது என்பதைக் காட்டுகிறது.
இதுவும் specialized compute enterprise AI buyers-க்கு ஒரு பக்க விஷயம் அல்ல என்பதை உறுதிப்படுத்துகிறது. ஒரு AI platform-ஐத் தேர்வு செய்யும் அமைப்புகள் மறைமுகமாக ஒரு infrastructure model-ஐயும் தேர்வு செய்கின்றன; அதில் வேலைப்பாடுகள் எவ்வாறு accelerated ஆகும், எதிர்கால scale எவ்வாறு கையாளப்படும் என்பதும் அடங்கும். models மேலும் demanding ஆகும் போது, அந்த கீழ்நிலைத் தீர்மானங்கள் மேலும் முக்கியமாகின்றன.
Google-ன் TPU explainer சுருக்கமானது, ஆனால் அதன் உள்நோக்கம் விரிவானது. AI leadership என்பது model labs மற்றும் product teams-இல் மட்டும் அல்ல; பெரிய அளவிலான machine intelligence-ஐ நடைமுறைப்படுத்தும் chip designs மற்றும் data-center systems-இலும் உருவாகிறது என்று நிறுவனம் சந்தைக்கு சொல்கிறது. புதிய TPUs-ஐ 121 exaflops மற்றும் இரட்டிப்பு bandwidth உடன் முன்வைப்பதன் மூலம், Google தனது hardware stack-ஐ AI demand-இன் அடுத்த கட்டத்துக்கான மைய பதிலாகக் காட்டுகிறது.
அது இந்த துறையில் ஒரு தீர்மானிக்கும் தலைப்பாக நீடிக்கக்கூடும்: வெற்றியாளர்கள் compelling AI applications கொண்ட நிறுவனங்கள் மட்டுமல்ல, அந்த applications இப்போது தேவைப்படும் compute load-ஐத் தாங்கக்கூடிய நிறுவனங்களும் ஆகும்.
இந்த கட்டுரை Google AI Blog-இன் செய்திப்பதிவை அடிப்படையாகக் கொண்டது. மூலக் கட்டுரையைப் படிக்கவும்.
Originally published on blog.google






