رویداد GTCفناوری

سخنرانی کلیدی کنفرانس GTC 2025; تحول در معماری‌های بنیادین+ویدیوی کامل

کنفرانس جهانی فناوری گرافیکی (GTC) سال ۲۰۲۵، در واشنگتن دی‌سی، نقطه عطفی در تاریخ صنعت محاسبات به شمار می‌آید. در سخنرانی کلیدی کنفرانس GTC 2025، جنسن هوانگ، بنیان‌گذار و مدیرعامل شرکت انویدیا، با رویکردی تحلیلی و راهبردی، مسیر آینده محاسبات جهانی را ترسیم کرد. او GTC را نه یک نمایشگاه فناوری، بلکه سکوی همگرایی علم، صنعت و سیاست فناوری توصیف کرد؛ جایی که آینده محاسبات هوشمند، در تعامل میان پژوهشگران، شرکت‌های صنعتی و نهادهای حاکمیتی شکل می‌گیرد.

هوانگ سخنرانی خود را با تاکید بر اهمیت نقش ایالات متحده در بازسازی زنجیره فناوری جهانی آغاز کرد. او از بازگشت تولید سخت‌افزارهای پیشرفته به خاک آمریکا به‌عنوان یک هدف ملی یاد کرد و افزود که این بازگشت، نماد احیای استقلال فناورانه کشور است. به گفته او، انویدیا با اتکا بر معماری‌های جدید و همکاری گسترده با شرکای صنعتی، در مسیر ایجاد زیرساخت‌های محاسباتی بومی گام برداشته است.

در رویکرد کلی سخنرانی، هوانگ بر مفهوم تحول پارادایمی در محاسبات تاکید داشت. وی اعلام کرد که دوره محاسبات سنتی به سر آمده و جهان به سمت عصری حرکت می‌کند که در آن، هوش مصنوعی، پردازش موازی و طراحی هم‌زمان سخت‌افزار و نرم‌افزار، ساختار صنایع را از بنیاد دگرگون خواهد ساخت. او GTC را «ظرف بزرگ(Superbowl) دنیای هوش مصنوعی» نامید و افزود که این رویداد، فرصتی است برای نمایش هم‌افزایی میان علم و صنعت؛ هم‌افزایی‌ای که قرار است آینده اقتصاد دیجیتال را بازتعریف کند.

محدودیت‌های Dennard Scaling و ظهور محاسبات شتاب‌یافته

جنسن هوانگ در ادامه سخنرانی خود به بررسی یکی از بنیادی‌ترین تحولات تاریخ فناوری پرداخت؛ پایانی بر قانون مور و آغاز دوران محاسبات شتاب‌یافته. او تصریح کرد که رشد نمایی کارایی ترانزیستورها که طی دهه‌ها مبنای توسعه صنعت نیمه‌رسانا بود، به محدودیت‌های فیزیکی خود رسیده است. در نتیجه، افزایش چگالی ترانزیستورها دیگر به معنای رشد متناظر در عملکرد پردازنده‌ها نیست. توقف «مقیاس‌پذیری دینارد» و کاهش بازده انرژی در تراشه‌های نسل جدید، جهان را به سمت نوعی بن‌بست محاسباتی می راند.

در پاسخ به این چالش، انویدیا با رویکردی متفاوت، معماری موسوم به «محاسبات شتاب‌یافته» را پایه‌گذاری کرده است. در این معماری، پردازنده گرافیکی (GPU) در کنار پردازنده مرکزی (CPU) قرار می‌گیرد تا بارهای کاری سنگین از حالت ترتیبی به پردازش موازی منتقل شوند. این ایده، اساس طراحی زبان برنامه‌نویسی CUDA را شکل داد؛ چارچوبی که به توسعه‌دهندگان امکان می‌دهد از توان میلیاردها ترانزیستور به صورت هم‌زمان بهره گیرند.

هوانگ توضیح داد که محاسبات شتاب‌یافته (Accelerated Computing) صرفاً یک فناوری جدید نیست، بلکه بازتعریف ماهیت رایانش است. انویدیا این مدل را طی سه دهه در صنایع مختلف اجرا کرد. این شرکت حوزه‌های گوناگونی را پوشش داد. این حوزه‌ها شامل شبیه‌سازی علمی و طراحی تراشه بودند. آنها همچنین مدل‌سازی هوش مصنوعی را دربر گرفتند.

عصر پردازنده‌های تکی به پایان رسیده است. آینده محاسبات بر اساس سخت‌افزارهای موازی شکل می‌گیرد. آینده بر الگوریتم‌های بازطراحی شده تکیه می‌کند. سرعت و بهره‌وری در آینده مفاهیم جدیدی پیدا می‌کنند. شتاب و هم‌زمانی این دو فاکتور را بازتعریف می‌کنند.

کتابخانه‌های CUDA-X و بازطراحی الگوریتم‌ها برای شتاب‌دهی صنعتی

انویدیا در سخنرانی خود بار دیگر تأکید کرد که ارزش اصلی فناوری‌هایش فراتر از سخت‌افزار است و در مجموعه گسترده کتابخانه‌های CUDA-X تجسم می‌یابد. این کتابخانه‌ها، حاصل سال‌ها بازنویسی الگوریتم‌ها برای اجرای موازی بر روی GPU هستند و هر کدام مسئله‌ای ویژه را برای محاسبات شتاب‌یافته بازتعریف می‌کنند. نمونه‌هایی که به‌صراحت در سخنرانی ذکر شد شامل CuLitho برای لیتوگرافی محاسباتی، چارچوب Megatron Core برای آموزش مدل‌های زبان بسیار بزرگ، و MONAI به‌عنوان چارچوب پیشرو در تصویربرداری پزشکی مبتنی بر یادگیری عمیق بودند.

افزون بر این‌ها، کتابخانه‌هایی برای حل معادلات دستگاهه‌ای مهندسی، بهینه‌سازی عددی در مسائل زنجیره تأمین و شبیه‌سازی‌های فیزیکی با Warp Python نیز مطرح شد. هر یک از این کتابخانه‌ها الگوریتم‌ها را از نو طراحی کرده‌اند تا با ریزمعماری موازی سازگار شوند. بدین ترتیب توسعه‌دهندگان می‌توانند از مزایای مقیاس‌پذیری و کارایی GPU بهره‌مند شوند.

هوانگ بر سازگاری نرم‌افزاری تأکید کرد. این سازگاری بین نسل‌های مختلف GPU برقرار است. نسخه‌های پیاپی CUDA مانند CUDA 13 و CUDA 14 این قابلیت را فراهم می‌کنند. در نتیجه صدها میلیون دستگاه از کتابخانه‌ها استفاده می‌کنند. آن‌ها این استفاده را به طور یکپارچه انجام می‌دهند. این رویکرد نرم‌افزارمحور زمان ورود به بازار را کاهش می‌دهد. همچنین بازارهای کاملاً جدیدی ایجاد می‌کند. این بازارها برای کاربردهای تخصصی طراحی شده‌اند. حوزه‌هایی مانند زیست‌فناوری را پوشش می‌دهند. لیتوگرافی نیمه‌هادی و تحلیل اطلاعات حجیم نیز شامل می‌شوند.

معماری شبکه بی‌سیم نرم‌افزارمحور: معرفی NVIDIA ARC و پلتفرم Aerial

انویدیا در این بخش از سخنرانی، محصول جدیدی به‌نام NVIDIA Arc را معرفی کرد که هدف آن بازتعریف ایستگاه‌های پایه ارتباط بی‌سیم است. این پلتفرم نرم‌افزارمحور با اجرای کتابخانه CUDA X ویژه رادیویی، امکان می‌دهد ایستگاه‌های پایه به‌صورت برنامه‌پذیر و مبتنی بر هوش مصنوعی عمل کنند. جنسن هوانگ این حرکت را گامی اساسی برای بازگرداندن نوآوری مخابراتی به اکوسیستم فناوری ایالات متحده توصیف کرد.

ترکیب Gray CPU، Blackwell GPU و ConnectX

معماری Arc بر سه رکن سخت‌افزاری استوار است: پردازنده Gray برای کنترل ترتیبی، GPU نسل Blackwell برای پردازش عظیم و شتاب‌دهی هوش مصنوعی، و رابط‌های شبکه‌ای ConnectX از خانواده Mellanox برای انتقال دیتا با کمترین تأخیر. ترکیب این سه قطعه امکان اجرای همزمان پردازش رادیویی و بارهای AI را فراهم می‌کند. این هم‌زمانی، مستلزم بازنویسی پشته نرم‌افزاری و ادغام عمیق میان لایه‌های پروتکل است.

 AI for RAN و محاسبات لبه

یکی از نوآوری‌های کلیدی، مفهوم «AI for RAN» است که از یادگیری تقویتی برای بهینه‌سازی شکل‌پرتو (beamforming) و تخصیص طیف در زمان واقعی استفاده می‌کند. افزون بر بهبود کارایی طیف، پلتفرم Aerial امکان ارائه خدمات محاسبات ابری در لبه را نیز مهیا می‌سازد؛ بدین مفهوم که دیتاسنترهای سبک‌وزن و خوشه‌های محاسباتی می‌توانند در خودِ ایستگاه‌های پایه مستقر شوند. چنین ساختاری توانمندی جدیدی برای پردازش اطلاعات حساس، تأخیرپایین ایجاد می‌کند.

هوانگ تأکید کرد که نوکیا شریک اصلی پیاده‌سازی Arc خواهد بود و این همکاری شامل ارتقای ایستگاه‌های پایه کنونی به‌کمک معماری نرم‌افزارمحور است. قابلیت سازگاری با پلتفرم AirScale نوکیا بدین معناست که می‌توان میلیون‌ها ایستگاه پایه موجود را به‌تدریج برای عصر ۶G و خدمات AI-enabled آماده ساخت. این رویکرد نشان‌دهنده ترکیب شبکه و هوش مصنوعی برای دستیابی به طیف‌بهره‌وری و خدمات نوین است.

همگرایی QPU–GPU: معماری NVQLink و پلتفرم CUDAQ برای کنترل و اصلاح خطا

جنسن هوانگ در بخشی فنی و کلیدی از سخنرانی، ضرورت اتصال مستقیم پردازنده‌های کوانتومی (QPU) به ابررایانه‌های مبتنی بر GPU را تشریح کرد. وی اعلام نمود که به همین منظور «NVQLink» طراحی شده است. NVQLink یک معماری ارتباطی کم‌تاخیر و پهن‌باند است که خوانش دیتاها از کیوبیت‌ها، محاسبهٔ محل بروز خطا و ارسال بازخورد تصحیحی را ممکن می‌سازد؛ فرایندی که باید هزاران بار در ثانیه تکرار شود. این راهکار به‌منظور انجام هم‌زمان کالیبراسیون، کنترل و شبیه‌سازی هیبرید بین QPU و GPU ارائه شده است.

ضرورت تاخیر کم و انتقال تِرا‌بایت بر ثانیه برای اصلاح خطای کوانتومی

اصلاح خطای کوانتومی به انتقال حجم عظیمی از دیتا نیاز دارد. این انتقال بین سخت‌افزارها در بازه‌های میکروثانیه انجام می‌شود. سیستم باید توانایی جابجایی ترابایت‌ها داده در هر ثانیه را دارا باشد. همین سیستم نتایج خوانش را بلافاصله تحلیل می‌کند. سپس فرمان‌های تصحیحی را بازمی‌گرداند. حلقه کنترل بدون این پهنای باند بالا بسته نمی‌شود. تاخیر کم نیز برای این فرآیند حیاتی است. در غیر این صورت کیوبیت‌ها دکوهرنس را تجربه می‌کنند. آن‌ها در نهایت فرو می‌ریزند. NVQLink به‌صورت مشخص این الزامات را هدف قرار می‌دهد تا اجرای الگوریتم‌های تصحیح خطا و شبیه‌سازی‌های هم‌محاسبه ممکن گردد.

پلتفرم نرم‌افزاریِ متن‌باز CUDAQ محور دوم این رویکرد است؛ نقش CUDAQ هماهنگی میان QPU و GPU و مدیریت جریان محاسباتی هیبرید است. هوانگ یادآور شد که این معماری مقیاس‌پذیر است و فراتر از چند صد کیوبیت امروز، قابلیت گسترش به ده‌ها هزار یا صدها هزار کیوبیت را فراهم می‌آورد. هدف نهایی، ایجاد یک پلتفرم «ابررایانش کوانتومی-تسریع‌شده» است. که محاسبات کلاسیک و کوانتومی را در یک چرخهٔ کنترلی فشرده تلفیق کند و بدین ترتیب کاربردهای علمی پیچیده را ممکن سازد.

ابررایانه‌های AI-محور و مشارکت با وزارت انرژی: طراحی برای شبیه‌سازی علمی

جنسن هوانگ این همکاری راهبردی را personally اعلام کرد. انویدیا با وزارت انرژی ایالات متحده توافقنامه‌ای منعقد کرده است. این همکاری ساخت هفت ابررایانه جدید را هدف گرفته است. این ابررایانه‌ها مختص هوش مصنوعی طراحی شده‌اند. ماموریت آن‌ها پیشبرد علم ملی است. این سامانه‌ها بر پایه محاسبات شتاب یافته عمل می‌کنند. آن‌ها آینده ابررایانه‌های علمی را تعریف خواهند کرد. هر ابررایانه آتی بر اساس GPU ساخته خواهد شد. این سیستم‌ها قادر به اجرای شبیه‌سازی‌های فیزیکی پیچیده هستند. آن‌ها همزمان مدل‌های هوش مصنوعی را نیز اجرا می‌کنند.

هوانگ افزود که هوش مصنوعی نه جایگزین محاسبات اصولی (principled solvers) می‌شود و نه آن‌ها را حذف می‌کند، بلکه آن‌ها را تقویت و مقیاس‌پذیر می‌سازد.

نقش رباتیک آزمایشگاهی و سنجش از دور در تسریع تحقیقات علمی

هوانگ به ضرورت روباتیک آزمایشگاهی و سامانه‌های سنجش از دور برای پیشبرد تحقیقات در مقیاس بالا اشاره کرد؛ او توضیح داد که بسیاری از آزمایش‌ها و نمونه‌برداری‌ها تنها با محیط‌های خودکار و کارخانه‌های رباتیک امکان‌پذیر خواهند شد. این روباتیک آزمایشگاهی به همراهِ ابررایانه‌های GPU-محور، چرخه‌ای از شبیه‌سازی، اجرای آزمایش، جمع‌آوری دیتا و بازخورد را به‌سرعت تکرار می‌کند؛ فرآیندی که سرعت کشف علمی را به‌طور چشمگیری افزایش می‌دهد و قابلیتِ انجام تجربیات در مقیاس ملی را فراهم می‌سازد.

تعریف مهندسی‌شده از هوش مصنوعی: توکنیزاسیون، آموزش و استدلال (Thinking)

هوش مصنوعی از نگاه جنسن هوانگ دیگر صرفاً مجموعه‌ای از الگوریتم‌ها نیست؛ بلکه یک «زبان محاسباتی» است که نخستین واحد آن توکن نامیده می‌شود. او توضیح داد که توکن‌ها همان واژگان محاسباتی‌اند و می‌توان هر اطلاعات قابل نمایش را توکنیزه کرد؛ از کلمات و تصاویر تا ویدئو، ساختار سه‌بعدی، ملکول‌ها، پروتئین‌ها و حتی حرکت و رفتار ربات‌ها. وقتی چیزی توکنیزه شود، مدل‌های یادگیری می‌توانند «زبان» آن را بیاموزند، معنا را درک کنند، ترجمه نمایند و تولید محتوا یا پاسخ‌هایی مشابه انسان ارائه دهند. این دیدگاه، پایه‌ای برای توصیف طیف گسترده‌ای از کاربردهای صنعتی و علمی است.

تفکیکِ مراحل Pre-training، Post-training و استدلال مبتنی بر محاسبه

در این چارچوب، هوانگ توکنیزاسیون را نقطه آغاز سه مرحله فناورانه دانست: پیش‌آموزش، پس‌آموزش و استدلال. پیش‌آموزش مرحله‌ای است که مدل واژگان و قواعد پایه را می‌آموزد، مشابه آموزش ابتدایی در انسان؛ سپس پس‌آموزش مهارت‌های تخصصی را می‌افزاید، مانند حل مسائل ریاضی یا کدنویسی. نهایتاً «استدلال» یا Thinking مرحله‌ای است که مدل بر پایه دانش آموخته، مسئله را تجزیه، استدلال و برای هر درخواست، پاسخ‌های مرحله‌ای و هدفمند تولید می‌کند. هوانگ تاکید کرد که استدلال، بار محاسباتی بسیار بیشتری نسبت به بازتولید اطلاعات ساده دارد.

هوانگ همچنین بیان کرد که این سه مرحله، هر یک مصرف محاسباتی عظیمی دارند، و وقتی با هم ترکیب می‌شوند، نیاز محاسباتی کل زیرساخت‌ها به‌شدت افزایش می‌یابد. او به این نکته اشاره کرد که مدل‌های هوشمندتر، رفتار معنادارتری تولید می‌کنند و بدین‌ترتیب میزان استفاده از آن‌ها رشد می‌کند؛ این امر منجر به دو نیروی نمایی می‌شود: افزایش نیاز محاسباتی ناشی از پیچیدگی مدل‌ها و افزایش تقاضا به‌خاطر محبوبیت و کارآیی بیشتر آن‌ها. نتیجه این‌که فشار بر منابع محاسباتی جهان هم‌زمان افزایش می‌یابد.

پیام نهایی هوانگ در این بخش روشن بود: برای بهره‌برداری از این فناوری‌ها باید زیرساختی تولید کنیم که توکن‌ها را با هزینه و تاخیر کمتر تولید کند. او هشدار داد که بدون طراحی هم‌زمان سخت‌افزار، نرم‌افزار و مدل‌ها، چرخهٔ رشد هوش مصنوعی کند یا گران خواهد ماند. بنابراین، هدف راهبردی تبدیل شدن به «کارخانهٔ تولید توکن» است؛ واحدی صنعتی که توکن‌های باارزش و با نرخ بالا تولید کند و از عهدهٔ بار محاسباتی استدلال برآید، در حالی که هزینهٔ کل مالکیت برای کاربران کاهش یابد.

مفهوم «کارخانه هوش مصنوعی»: تولید توکن در مقیاس صنعتی و معیارهای TCO

جنسن هوانگ در ادامه سخنرانی خود مفهوم تازه‌ای را مطرح کرد که آن را «کارخانه هوش مصنوعی» نامید. او توضیح داد که برخلاف مراکز داده سنتی که برای اجرای مجموعه‌ای متنوع از برنامه‌ها طراحی می‌شوند، کارخانه هوش مصنوعی تنها یک هدف دارد: تولید توکن. هر توکن واحدی از دانش یا نتیجهٔ پردازش است که ارزش آن به میزان هوشمندی و سرعت تولیدش بستگی دارد. هوانگ این فرایند را همانند خطوط تولید صنعتی توصیف کرد که در آن‌ها مواد خام داده به محصول نهایی یعنی بینش و تصمیم تبدیل می‌شود. در این چارچوب، زیرساخت محاسباتی نقشی مشابه تجهیزات سنگین در کارخانه‌های کلاسیک ایفا می‌کند.

 فلوِ تولید توکن، نرخ تولید و معیارهای بهره‌وری (tokens/sec per $)

هوانگ معیارهای جدیدی برای سنجش کارایی دیتاسنتر معرفی کرد. او گفت که در کارخانه‌های هوش مصنوعی، شاخص‌های سنتی مانند سرعت پردازش خام کافی نیستند؛ بلکه باید بر معیارهایی مانند «تعداد توکن تولیدشده در هر ثانیه به‌ازای هر دلار» تمرکز کرد. این معیار بیانگر نسبت مستقیم میان بهره‌وری و هزینهٔ کل مالکیت (TCO) است. وی افزود که سیستم‌هایی نظیر معماری Grace Blackwell و اتصال NVLink 72، با افزایش نرخ تولید توکن و کاهش هزینهٔ انرژی، توانسته‌اند این نسبت را به سطحی بی‌سابقه برسانند.

در بخش پایانی این مبحث، هوانگ به چالش‌های انرژی و مقیاس‌پذیری اشاره کرد و یادآور شد که بهبود بازده طیفی و پردازش در لبه (Edge) برای پایداری زیست‌محیطی حیاتی است. او کارخانه‌های هوش مصنوعی را ستون فقرات اقتصاد دیجیتال آینده دانست؛ واحدهایی که داده را به تصمیم و تصمیم را به ارزش اقتصادی تبدیل می‌کنند. از نظر او، هر صنعتی که به دنبال مزیت رقابتی در عصر جدید باشد، ناگزیر باید به کارخانه‌ای برای تولید هوش تبدیل شود؛ کارخانه‌ای که ارزش آن نه در حجم اطلاعات، بلکه در کیفیت و سرعت پردازش معنا می‌یابد.

طراحی هم‌زمان (Extreme Co-Design) سخت‌افزار–نرم‌افزار و معماری Blackwell

انویدیا در سخنرانی خود بر ضرورت «طراحی هم‌زمان» یا Extreme Co-Design برای عبور از محدودیت‌های قانون مور تأکید کرد. هم‌طراحی یکپارچه، لایه‌های مختلف فناوری را با هم ادغام می‌کند. این رویکرد ریزمعماری تراشه را بهینه می‌سازد. این روش چیدمان حافظه را همزمان توسعه می‌دهد. توپولوژی شبکه درون‌سیستمی نیز در این فرآیند طراحی می‌شود. کتابخانه‌های نرم‌افزاری به صورت موازی تکامل پیدا می‌کنند. معماری مدل‌های یادگیری نیز در این چارچوب شکل می‌گیرد. این روش یکپارچه نتایج چشمگیری ایجاد می‌کند. این فرآیند پیشرفت‌های نمایی در عملکرد به ارمغان می‌آورد. این رویکرد هزینه کل مالکیت را به طور قابل توجهی کاهش می‌دهد.

جنسن هوانگ توضیح داد که تنها با تفکر هم‌زمان در هر لایه از پشته می‌توان از پسِ نیازهای محاسبات استدلال (thinking) و تولید توکن در مقیاس صنعتی برآمد. این رویکرد اجازه می‌دهد تا هر قطعه سخت‌افزار دقیقاً برای نوع بار کاری مدل‌ها بهینه شود و در نهایت نرخ تولید توکن به‌طرزی معنادار افزایش یابد.

اجرای عملی این فلسفه در معماری Blackwell و سامانه‌های رک-مقیاس مانند GB300 و Vera Rubin مشهود است؛ ترکیب MVLink72 برای پهنای‌باند All-to-All، تجمیع HBM روی اینترپوزر سفارشی و سوئیچ‌های Spectrum-X برای مسیریابی مخصوص AI، همگی نمونه‌هایی از هم‌طراحی‌اند. نتیجهٔ این همگرا‌سازی، افزایش ده‌برابری عملکرد در برخی بارهای کاری و کاهش چشمگیر هزینه توکن‌ها است؛ بدین ترتیب چرخهٔ مجازی رشدِ اکوسیستم CUDA-محور شتاب می‌گیرد و سرمایه‌گذاری‌های عظیم CSPها توجیه‌پذیر می‌شود. توضیحات فنی و جزئیات این معماری در متن سخنرانی اصلی ارائه شده است.

بازگشت تولید تراشه به آمریکا و پیامدهای راهبردی

جنسن هوانگ در سخنرانی خود بارها به بازگرداندن تولید سخت‌افزارهای پیشرفته به خاک ایالات متحده تأکید کرد و اعلام نمود که نسل‌های جدید پردازندهٔ Blackwell و سامانه‌های GB300 در آمریکا تولید و مونتاژ خواهند شد. وی فرایند تولید را نقطه‌ای کلیدی برای امنیت زنجیرهٔ تأمین و استقلال فناورانه تلقی کرد و بر لزوم سرمایه‌گذاری ملی برای احیای ظرفیت‌های صنعتی تاکید نمود. این بازگشتِ تولید نه تنها به ایجاد اشتغال فنی و زنجیرهٔ تأمین داخلی می‌انجامد، بلکه موقعیت ایالات متحده در زمینهٔ زیرساخت‌های حیاتی محاسباتی را تقویت می‌کند.

از ویفر تا رک: مراحل تولید Blackwell و مونتاژ رک در ایالات متحده

در توضیح مراحل عملیاتی، هوانگ به جزئیاتِ فنیِ تولید پرداخت: آغاز از ویفر سیلیکونی در آریزونا، پردازش چندصدمرحله‌ای لیتوگرافی با استفاده از EUV، و سپس مونتاژ توده‌های حافظهٔ HBM در ایندیانا. مهندسان Blackwell دی‌ها را روی اینترپوزرهای سفارشی قرار میدهد و ۱۲۸ یا بیشتر استک‌های HBM را با اتصال TSV ادغام می‌کنند. سپس اجزای مختلف شامل تراشه‌ها، ماژول‌های شبکهٔ ConnectX و DPUهای BlueField در قالب کامپوننت‌های GB300 سرهم‌بندی می‌شود. فناوری MVLink و MVLink switch با ایجاد پهنای‌باند All-to-All و کابل‌بندی تخصصی امکان تشکیلِ یک «ابر-GPU» مجازی را فراهم می‌سازد؛ بسته‌هایی که در نهایت به رک‌هایی با میلیون‌ها قطعه و تِرا-ترانزیستورها تبدیل می‌شوند.

اهمیت اقتصادی و راهبردی این جریان تولید را نمی‌توان نادیده گرفت: تولید داخلی Blackwellها به بازتعریف زنجیرهٔ ارزش نیمه‌رسانا و خدمات فوق‌العاده محاسباتی منتهی خواهد شد. از منظر ملی، داشتن ظرفیت تولید محاسباتی در داخل کشور، قابلیت‌های دفاعی و تحقیقاتی را تقویت می‌کند و از وابستگی به منابع خارجی می‌کاهد. همچنین، این تحول می‌تواند محرکی برای سرمایه‌گذاری‌های بیشتر در زیرساخت‌های انرژی، آموزش نیروی انسانی و توسعهٔ اکوسیستم تأمین‌کنندگان محلی باشد؛ مجموعه‌ای از اثراتِ هم‌افزا که بازتولید صنعتیِ مبتنی بر هوش مصنوعی را تسریع می‌کند.

دوقلو دیجیتال و Omniverse DSX: طراحی، شبیه‌سازی و عملیات گیگافکتوری

در بخش پایانی سخنرانی، جنسن هوانگ از مفهوم «دوقلوی دیجیتال» به‌عنوان حلقهٔ اتصال میان طراحی فیزیکی و شبیه‌سازی مجازی یاد کرد. او توضیح داد که پلتفرم Omniverse DSX برای مهندسان صنعتی و مراکز داده نسل جدید توسعه یافته است تا بتوانند یک مدل دیجیتال کامل از کارخانه یا مرکز پردازش بسازند و پیش از اجرای واقعی، همهٔ رفتارها را در محیطی شبیه‌سازی‌شده بیازمایند. این دوقلو دیجیتال، امکان بررسی جزئیات جریان هوا، توزیع حرارت، مسیر کابل‌ها و جریان انرژی را با دقت مهندسی فراهم می‌کند و بدین ترتیب از خطاهای پرهزینه در طراحی فیزیکی جلوگیری می‌کند.

هوانگ با اشاره به نقش CUDA در شبیه‌سازی‌های ترمال و الکتریکی تأکید کرد که طراحی دیتاسنتر دیگر صرفاً بر پایهٔ توان سخت‌افزاری انجام نمی‌شود. بلکه بهینه‌سازیِ انرژی، خنک‌سازی و چگالی محاسبات نیز باید در قالب مدل‌های عددی دقیق بررسی شود. در Omniverse DSX، هر رک و هر ماژول با جزئیات ترمال مدل می‌شود تا جریان حرارت و مصرف برق بهینه گردد. وی افزود که این شبیه‌سازی‌ها نه‌تنها موجب کاهش هزینه‌های عملیاتی و مصرف انرژی می‌شوند. بلکه امکان طراحی ماژولار و نصب سریع در مقیاس گیگافکتوری را نیز فراهم می‌کنند. از نظر او، همگرایی طراحی دیجیتال، انرژی پایدار و زیرساخت هوشمند، گام نهایی در مسیر تحقق کارخانه‌های هوش مصنوعی است. جایی که مهندسی، علم و محاسبات در یک چرخهٔ پیوسته و شفاف ادغام می‌شوند.

امتیاز کاربران: اولین نفری باشید که امتیاز می دهد!

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا