Google তার TPU কৌশলকে inference এবং training-এর মধ্যে ভাগ করছে
Google দুটি বিশেষায়িত অষ্টম-প্রজন্মের TPU নকশা চালু করেছে, যুক্তি দিচ্ছে যে AI infrastructure-এর পরবর্তী ধাপটি এমন autonomous agents দ্বারা গড়ে উঠবে যারা যুক্তি করে, পরিকল্পনা করে এবং বহু-ধাপের কাজ সম্পন্ন করে। Google blog-এ প্রকাশিত এক পোস্টে কোম্পানিটি বলছে, TPU 8i বিশেষভাবে তৈরি করা হয়েছে যাতে AI agents কাজ দ্রুত শেষ করতে পারে এবং ব্যবহারকারীর অভিজ্ঞতা ভালো থাকে, আর TPU 8t training-এর জন্য optimized এবং একটি একক বিশাল memory pool-এ অত্যন্ত জটিল models চালাতে পারে।
এই ঘোষণাটি শুধু নতুন chips প্রকাশের জন্যই গুরুত্বপূর্ণ নয়, বরং কারণ Google এগুলোকে একটি নতুন workload narrative-এর চারপাশে স্পষ্টভাবে সাজাচ্ছে। বহু বছর ধরে AI accelerator আলোচনার কেন্দ্র ছিল training এবং inference-এর ক্লাসিক বিভাজন। Google সেই পার্থক্য বজায় রাখছে, তবে inference দিকের এক অংশকে conventional model serving-এর বদলে agents-কে কেন্দ্র করে পুনর্গঠন করছে। এই framing ইঙ্গিত দেয় যে ভবিষ্যতের চাহিদা একক prompt-response interactions-এর চেয়ে ব্যবহারকারীর পক্ষে ধারাবাহিক কাজ সম্পন্ন করা systems-এর ওপর বেশি নির্ভর করবে।
কেন দুটি বিশেষ TPU
Google-এর বর্ণনা একটি সহজ premise-এর ওপর দাঁড়িয়ে: agentic AI-এর infrastructure চাহিদা frontier model training-এর চাহিদার মতো নয়। Agents-এর responsiveness দরকার। যদি তাদের কাজের ওপর যুক্তি করতে, tools কল করতে এবং workflows সম্পন্ন করতে হয়, তবে latency-ই নির্ধারণ করে experience কতটা ব্যবহারযোগ্য মনে হবে। Google-এর মতে TPU 8i সেই জায়গাতেই মানানসই। এটি এমনভাবে তৈরি যে সেই interactions practical deployment সমর্থন করার মতো দ্রুত হয়।
TPU 8t আরেকটি সমস্যার সমাধান করে। উন্নত models training এখন শুধু raw compute নয়, বরং এমন memory capacity-ও দাবি করে যা বড় এবং আরও জটিল systems ধারণ করতে পারে। Google বলছে, TPU 8t এই ভূমিকার জন্য tuned এবং একক বিশাল memory pool-এ খুব জটিল models চালাতে পারে। এই দাবি chip-টিকে developers ও organizations-এর জন্য একটি tool হিসেবে স্থাপন করে, যারা infrastructure-এ কাজের বোঝা অতিরিক্ত খণ্ডিত না করে scale বাড়াতে চাইছে।
বৃহত্তর stack-ও বার্তার অংশ
Google chips-কে তার full-stack infrastructure গল্পের মধ্যে রাখতেও সতর্ক। blog post নতুন TPUs-কে networking, data centers এবং energy-efficient operations-এর সঙ্গে যুক্ত করে, আর সেই বৃহত্তর system-টিকে এমন engine হিসেবে বর্ণনা করে যা অত্যন্ত responsive agentic AI-কে mass audience-এর কাছে নিয়ে আসতে পারে। এই framing গুরুত্বপূর্ণ, কারণ AI infrastructure-এ প্রতিযোগিতা এখন আর শুধু chip নিয়ে নয়। এটি silicon, software, networking এবং power efficiency-কে একটি platform-এ একীভূত করা নিয়ে, যা বড় পরিসরে কেনা ও স্থাপন করা যায়।
Google-এর জন্য এটি একটি strategic advantage, যা সে দীর্ঘদিন ধরে জোর দিয়ে বলার চেষ্টা করেছে। কোম্পানি শুধু accelerator access বিক্রি করছে না। এটি এমন একটি vertically integrated environment দেখাচ্ছে, যেখানে custom chips-এর সঙ্গে cloud services এবং বহু বছর ধরে বড়-scale machine learning systems চালানোর অভ্যন্তরীণ অভিজ্ঞতা জড়িত।
প্র্যাকটিক্যাল অর্থে “agentic” কী বোঝায়
“agentic era” শব্দবন্ধের ব্যবহার নিজেই তাৎপর্যপূর্ণ। AI companies increasingly promote systems that can do more than generate text or images on request. The aspiration is software that can plan, decide and execute across multiple steps, often with access to tools or enterprise workflows. Whether or not every marketed “agent” lives up to that description, infrastructure providers clearly see the category as commercially important enough to shape hardware roadmaps.
TPU 8i-কে agents-এর chip হিসেবে নামকরণ করে Google কার্যত বাজি ধরছে যে জটিল, বহু-ধাপের workloads-এ responsiveness একটি defining performance metric হয়ে উঠবে। এটি peak benchmark numbers-এর মতোই গুরুত্বপূর্ণ হতে পারে। বাস্তব ব্যবহারে, ধীরগতির বা chained tasks-এ আটকে যাওয়া একটি agent, underlying model শক্তিশালী হলেও, broken বলে মনে হতে পারে।
এই launch কেন গুরুত্বপূর্ণ
সাধারণ-purpose GPU demand যখন আলোচনাকে প্রভাবিত করছিল, সেই সময়ের পর AI hardware দ্রুত আবার বিশেষায়িত হয়ে উঠছে—এটি এই ঘোষণায় স্পষ্ট। বাজার এখন আলাদা আলাদা চাহিদার ভিত্তিতে বিভক্ত হচ্ছে: giant models training, সেগুলো সস্তায় serving করা, multimodal workloads সামলানো, interactive agent systems সক্ষম করা। Google-এর নতুন TPU জুটি এই fragmentation-ই দেখায়।
এটি আরও দেখায় infrastructure messaging কীভাবে বদলেছে। Chip launches এখন আর শুধু speedups বা throughput gains দিয়ে উপস্থাপিত হয় না। এগুলোকে AI কীভাবে ব্যবহার হবে তার নির্দিষ্ট দৃষ্টিভঙ্গির সঙ্গে যুক্ত করা হয়। এই ক্ষেত্রে, Google চায় গ্রাহকরা এমন একটি বিশ্ব কল্পনা করুক যেখানে agents ব্যবহারকারীর পক্ষে কাজ করে, আর সেই systems-এর training ও দ্রুত real-time execution-এর জন্য নিচের infrastructure purpose-built।
যদি সেই দৃষ্টিভঙ্গি সঠিক হয়, তাহলে TPU 8i এবং TPU 8t কেবল একটি সাধারণ generation update নয়, বরং AI demand পরের দিকে কোন স্থাপত্যগত পথে এগোচ্ছে তার একটি statement হবে।
এই নিবন্ধটি Google AI Blog-এর রিপোর্টিং-এর ভিত্তিতে লেখা। মূল নিবন্ধ পড়ুন.
Originally published on blog.google
