سخنرانی کلیدی کنفرانس GTC 2025; تحول در معماریهای بنیادین+ویدیوی کامل
کنفرانس جهانی فناوری گرافیکی (GTC) سال ۲۰۲۵، در واشنگتن دیسی، نقطه عطفی در تاریخ صنعت محاسبات به شمار میآید. در سخنرانی کلیدی کنفرانس GTC 2025، جنسن هوانگ، بنیانگذار و مدیرعامل شرکت انویدیا، با رویکردی تحلیلی و راهبردی، مسیر آینده محاسبات جهانی را ترسیم کرد. او GTC را نه یک نمایشگاه فناوری، بلکه سکوی همگرایی علم، صنعت و سیاست فناوری توصیف کرد؛ جایی که آینده محاسبات هوشمند، در تعامل میان پژوهشگران، شرکتهای صنعتی و نهادهای حاکمیتی شکل میگیرد.
هوانگ سخنرانی خود را با تاکید بر اهمیت نقش ایالات متحده در بازسازی زنجیره فناوری جهانی آغاز کرد. او از بازگشت تولید سختافزارهای پیشرفته به خاک آمریکا بهعنوان یک هدف ملی یاد کرد و افزود که این بازگشت، نماد احیای استقلال فناورانه کشور است. به گفته او، انویدیا با اتکا بر معماریهای جدید و همکاری گسترده با شرکای صنعتی، در مسیر ایجاد زیرساختهای محاسباتی بومی گام برداشته است.
در رویکرد کلی سخنرانی، هوانگ بر مفهوم تحول پارادایمی در محاسبات تاکید داشت. وی اعلام کرد که دوره محاسبات سنتی به سر آمده و جهان به سمت عصری حرکت میکند که در آن، هوش مصنوعی، پردازش موازی و طراحی همزمان سختافزار و نرمافزار، ساختار صنایع را از بنیاد دگرگون خواهد ساخت. او GTC را «ظرف بزرگ(Superbowl) دنیای هوش مصنوعی» نامید و افزود که این رویداد، فرصتی است برای نمایش همافزایی میان علم و صنعت؛ همافزاییای که قرار است آینده اقتصاد دیجیتال را بازتعریف کند.
محدودیتهای Dennard Scaling و ظهور محاسبات شتابیافته
جنسن هوانگ در ادامه سخنرانی خود به بررسی یکی از بنیادیترین تحولات تاریخ فناوری پرداخت؛ پایانی بر قانون مور و آغاز دوران محاسبات شتابیافته. او تصریح کرد که رشد نمایی کارایی ترانزیستورها که طی دههها مبنای توسعه صنعت نیمهرسانا بود، به محدودیتهای فیزیکی خود رسیده است. در نتیجه، افزایش چگالی ترانزیستورها دیگر به معنای رشد متناظر در عملکرد پردازندهها نیست. توقف «مقیاسپذیری دینارد» و کاهش بازده انرژی در تراشههای نسل جدید، جهان را به سمت نوعی بنبست محاسباتی می راند.
در پاسخ به این چالش، انویدیا با رویکردی متفاوت، معماری موسوم به «محاسبات شتابیافته» را پایهگذاری کرده است. در این معماری، پردازنده گرافیکی (GPU) در کنار پردازنده مرکزی (CPU) قرار میگیرد تا بارهای کاری سنگین از حالت ترتیبی به پردازش موازی منتقل شوند. این ایده، اساس طراحی زبان برنامهنویسی CUDA را شکل داد؛ چارچوبی که به توسعهدهندگان امکان میدهد از توان میلیاردها ترانزیستور به صورت همزمان بهره گیرند.
هوانگ توضیح داد که محاسبات شتابیافته (Accelerated Computing) صرفاً یک فناوری جدید نیست، بلکه بازتعریف ماهیت رایانش است. انویدیا این مدل را طی سه دهه در صنایع مختلف اجرا کرد. این شرکت حوزههای گوناگونی را پوشش داد. این حوزهها شامل شبیهسازی علمی و طراحی تراشه بودند. آنها همچنین مدلسازی هوش مصنوعی را دربر گرفتند.

عصر پردازندههای تکی به پایان رسیده است. آینده محاسبات بر اساس سختافزارهای موازی شکل میگیرد. آینده بر الگوریتمهای بازطراحی شده تکیه میکند. سرعت و بهرهوری در آینده مفاهیم جدیدی پیدا میکنند. شتاب و همزمانی این دو فاکتور را بازتعریف میکنند.
کتابخانههای CUDA-X و بازطراحی الگوریتمها برای شتابدهی صنعتی
انویدیا در سخنرانی خود بار دیگر تأکید کرد که ارزش اصلی فناوریهایش فراتر از سختافزار است و در مجموعه گسترده کتابخانههای CUDA-X تجسم مییابد. این کتابخانهها، حاصل سالها بازنویسی الگوریتمها برای اجرای موازی بر روی GPU هستند و هر کدام مسئلهای ویژه را برای محاسبات شتابیافته بازتعریف میکنند. نمونههایی که بهصراحت در سخنرانی ذکر شد شامل CuLitho برای لیتوگرافی محاسباتی، چارچوب Megatron Core برای آموزش مدلهای زبان بسیار بزرگ، و MONAI بهعنوان چارچوب پیشرو در تصویربرداری پزشکی مبتنی بر یادگیری عمیق بودند.
افزون بر اینها، کتابخانههایی برای حل معادلات دستگاههای مهندسی، بهینهسازی عددی در مسائل زنجیره تأمین و شبیهسازیهای فیزیکی با Warp Python نیز مطرح شد. هر یک از این کتابخانهها الگوریتمها را از نو طراحی کردهاند تا با ریزمعماری موازی سازگار شوند. بدین ترتیب توسعهدهندگان میتوانند از مزایای مقیاسپذیری و کارایی GPU بهرهمند شوند.
هوانگ بر سازگاری نرمافزاری تأکید کرد. این سازگاری بین نسلهای مختلف GPU برقرار است. نسخههای پیاپی CUDA مانند CUDA 13 و CUDA 14 این قابلیت را فراهم میکنند. در نتیجه صدها میلیون دستگاه از کتابخانهها استفاده میکنند. آنها این استفاده را به طور یکپارچه انجام میدهند. این رویکرد نرمافزارمحور زمان ورود به بازار را کاهش میدهد. همچنین بازارهای کاملاً جدیدی ایجاد میکند. این بازارها برای کاربردهای تخصصی طراحی شدهاند. حوزههایی مانند زیستفناوری را پوشش میدهند. لیتوگرافی نیمههادی و تحلیل اطلاعات حجیم نیز شامل میشوند.

معماری شبکه بیسیم نرمافزارمحور: معرفی NVIDIA ARC و پلتفرم Aerial
انویدیا در این بخش از سخنرانی، محصول جدیدی بهنام NVIDIA Arc را معرفی کرد که هدف آن بازتعریف ایستگاههای پایه ارتباط بیسیم است. این پلتفرم نرمافزارمحور با اجرای کتابخانه CUDA X ویژه رادیویی، امکان میدهد ایستگاههای پایه بهصورت برنامهپذیر و مبتنی بر هوش مصنوعی عمل کنند. جنسن هوانگ این حرکت را گامی اساسی برای بازگرداندن نوآوری مخابراتی به اکوسیستم فناوری ایالات متحده توصیف کرد.
ترکیب Gray CPU، Blackwell GPU و ConnectX
معماری Arc بر سه رکن سختافزاری استوار است: پردازنده Gray برای کنترل ترتیبی، GPU نسل Blackwell برای پردازش عظیم و شتابدهی هوش مصنوعی، و رابطهای شبکهای ConnectX از خانواده Mellanox برای انتقال دیتا با کمترین تأخیر. ترکیب این سه قطعه امکان اجرای همزمان پردازش رادیویی و بارهای AI را فراهم میکند. این همزمانی، مستلزم بازنویسی پشته نرمافزاری و ادغام عمیق میان لایههای پروتکل است.
AI for RAN و محاسبات لبه
یکی از نوآوریهای کلیدی، مفهوم «AI for RAN» است که از یادگیری تقویتی برای بهینهسازی شکلپرتو (beamforming) و تخصیص طیف در زمان واقعی استفاده میکند. افزون بر بهبود کارایی طیف، پلتفرم Aerial امکان ارائه خدمات محاسبات ابری در لبه را نیز مهیا میسازد؛ بدین مفهوم که دیتاسنترهای سبکوزن و خوشههای محاسباتی میتوانند در خودِ ایستگاههای پایه مستقر شوند. چنین ساختاری توانمندی جدیدی برای پردازش اطلاعات حساس، تأخیرپایین ایجاد میکند.
هوانگ تأکید کرد که نوکیا شریک اصلی پیادهسازی Arc خواهد بود و این همکاری شامل ارتقای ایستگاههای پایه کنونی بهکمک معماری نرمافزارمحور است. قابلیت سازگاری با پلتفرم AirScale نوکیا بدین معناست که میتوان میلیونها ایستگاه پایه موجود را بهتدریج برای عصر ۶G و خدمات AI-enabled آماده ساخت. این رویکرد نشاندهنده ترکیب شبکه و هوش مصنوعی برای دستیابی به طیفبهرهوری و خدمات نوین است.

همگرایی QPU–GPU: معماری NVQLink و پلتفرم CUDAQ برای کنترل و اصلاح خطا
جنسن هوانگ در بخشی فنی و کلیدی از سخنرانی، ضرورت اتصال مستقیم پردازندههای کوانتومی (QPU) به ابررایانههای مبتنی بر GPU را تشریح کرد. وی اعلام نمود که به همین منظور «NVQLink» طراحی شده است. NVQLink یک معماری ارتباطی کمتاخیر و پهنباند است که خوانش دیتاها از کیوبیتها، محاسبهٔ محل بروز خطا و ارسال بازخورد تصحیحی را ممکن میسازد؛ فرایندی که باید هزاران بار در ثانیه تکرار شود. این راهکار بهمنظور انجام همزمان کالیبراسیون، کنترل و شبیهسازی هیبرید بین QPU و GPU ارائه شده است.
ضرورت تاخیر کم و انتقال تِرابایت بر ثانیه برای اصلاح خطای کوانتومی
اصلاح خطای کوانتومی به انتقال حجم عظیمی از دیتا نیاز دارد. این انتقال بین سختافزارها در بازههای میکروثانیه انجام میشود. سیستم باید توانایی جابجایی ترابایتها داده در هر ثانیه را دارا باشد. همین سیستم نتایج خوانش را بلافاصله تحلیل میکند. سپس فرمانهای تصحیحی را بازمیگرداند. حلقه کنترل بدون این پهنای باند بالا بسته نمیشود. تاخیر کم نیز برای این فرآیند حیاتی است. در غیر این صورت کیوبیتها دکوهرنس را تجربه میکنند. آنها در نهایت فرو میریزند. NVQLink بهصورت مشخص این الزامات را هدف قرار میدهد تا اجرای الگوریتمهای تصحیح خطا و شبیهسازیهای هممحاسبه ممکن گردد.

پلتفرم نرمافزاریِ متنباز CUDAQ محور دوم این رویکرد است؛ نقش CUDAQ هماهنگی میان QPU و GPU و مدیریت جریان محاسباتی هیبرید است. هوانگ یادآور شد که این معماری مقیاسپذیر است و فراتر از چند صد کیوبیت امروز، قابلیت گسترش به دهها هزار یا صدها هزار کیوبیت را فراهم میآورد. هدف نهایی، ایجاد یک پلتفرم «ابررایانش کوانتومی-تسریعشده» است. که محاسبات کلاسیک و کوانتومی را در یک چرخهٔ کنترلی فشرده تلفیق کند و بدین ترتیب کاربردهای علمی پیچیده را ممکن سازد.
ابررایانههای AI-محور و مشارکت با وزارت انرژی: طراحی برای شبیهسازی علمی
جنسن هوانگ این همکاری راهبردی را personally اعلام کرد. انویدیا با وزارت انرژی ایالات متحده توافقنامهای منعقد کرده است. این همکاری ساخت هفت ابررایانه جدید را هدف گرفته است. این ابررایانهها مختص هوش مصنوعی طراحی شدهاند. ماموریت آنها پیشبرد علم ملی است. این سامانهها بر پایه محاسبات شتاب یافته عمل میکنند. آنها آینده ابررایانههای علمی را تعریف خواهند کرد. هر ابررایانه آتی بر اساس GPU ساخته خواهد شد. این سیستمها قادر به اجرای شبیهسازیهای فیزیکی پیچیده هستند. آنها همزمان مدلهای هوش مصنوعی را نیز اجرا میکنند.
هوانگ افزود که هوش مصنوعی نه جایگزین محاسبات اصولی (principled solvers) میشود و نه آنها را حذف میکند، بلکه آنها را تقویت و مقیاسپذیر میسازد.

نقش رباتیک آزمایشگاهی و سنجش از دور در تسریع تحقیقات علمی
هوانگ به ضرورت روباتیک آزمایشگاهی و سامانههای سنجش از دور برای پیشبرد تحقیقات در مقیاس بالا اشاره کرد؛ او توضیح داد که بسیاری از آزمایشها و نمونهبرداریها تنها با محیطهای خودکار و کارخانههای رباتیک امکانپذیر خواهند شد. این روباتیک آزمایشگاهی به همراهِ ابررایانههای GPU-محور، چرخهای از شبیهسازی، اجرای آزمایش، جمعآوری دیتا و بازخورد را بهسرعت تکرار میکند؛ فرآیندی که سرعت کشف علمی را بهطور چشمگیری افزایش میدهد و قابلیتِ انجام تجربیات در مقیاس ملی را فراهم میسازد.
تعریف مهندسیشده از هوش مصنوعی: توکنیزاسیون، آموزش و استدلال (Thinking)
هوش مصنوعی از نگاه جنسن هوانگ دیگر صرفاً مجموعهای از الگوریتمها نیست؛ بلکه یک «زبان محاسباتی» است که نخستین واحد آن توکن نامیده میشود. او توضیح داد که توکنها همان واژگان محاسباتیاند و میتوان هر اطلاعات قابل نمایش را توکنیزه کرد؛ از کلمات و تصاویر تا ویدئو، ساختار سهبعدی، ملکولها، پروتئینها و حتی حرکت و رفتار رباتها. وقتی چیزی توکنیزه شود، مدلهای یادگیری میتوانند «زبان» آن را بیاموزند، معنا را درک کنند، ترجمه نمایند و تولید محتوا یا پاسخهایی مشابه انسان ارائه دهند. این دیدگاه، پایهای برای توصیف طیف گستردهای از کاربردهای صنعتی و علمی است.
تفکیکِ مراحل Pre-training، Post-training و استدلال مبتنی بر محاسبه
در این چارچوب، هوانگ توکنیزاسیون را نقطه آغاز سه مرحله فناورانه دانست: پیشآموزش، پسآموزش و استدلال. پیشآموزش مرحلهای است که مدل واژگان و قواعد پایه را میآموزد، مشابه آموزش ابتدایی در انسان؛ سپس پسآموزش مهارتهای تخصصی را میافزاید، مانند حل مسائل ریاضی یا کدنویسی. نهایتاً «استدلال» یا Thinking مرحلهای است که مدل بر پایه دانش آموخته، مسئله را تجزیه، استدلال و برای هر درخواست، پاسخهای مرحلهای و هدفمند تولید میکند. هوانگ تاکید کرد که استدلال، بار محاسباتی بسیار بیشتری نسبت به بازتولید اطلاعات ساده دارد.
هوانگ همچنین بیان کرد که این سه مرحله، هر یک مصرف محاسباتی عظیمی دارند، و وقتی با هم ترکیب میشوند، نیاز محاسباتی کل زیرساختها بهشدت افزایش مییابد. او به این نکته اشاره کرد که مدلهای هوشمندتر، رفتار معنادارتری تولید میکنند و بدینترتیب میزان استفاده از آنها رشد میکند؛ این امر منجر به دو نیروی نمایی میشود: افزایش نیاز محاسباتی ناشی از پیچیدگی مدلها و افزایش تقاضا بهخاطر محبوبیت و کارآیی بیشتر آنها. نتیجه اینکه فشار بر منابع محاسباتی جهان همزمان افزایش مییابد.

پیام نهایی هوانگ در این بخش روشن بود: برای بهرهبرداری از این فناوریها باید زیرساختی تولید کنیم که توکنها را با هزینه و تاخیر کمتر تولید کند. او هشدار داد که بدون طراحی همزمان سختافزار، نرمافزار و مدلها، چرخهٔ رشد هوش مصنوعی کند یا گران خواهد ماند. بنابراین، هدف راهبردی تبدیل شدن به «کارخانهٔ تولید توکن» است؛ واحدی صنعتی که توکنهای باارزش و با نرخ بالا تولید کند و از عهدهٔ بار محاسباتی استدلال برآید، در حالی که هزینهٔ کل مالکیت برای کاربران کاهش یابد.
مفهوم «کارخانه هوش مصنوعی»: تولید توکن در مقیاس صنعتی و معیارهای TCO
جنسن هوانگ در ادامه سخنرانی خود مفهوم تازهای را مطرح کرد که آن را «کارخانه هوش مصنوعی» نامید. او توضیح داد که برخلاف مراکز داده سنتی که برای اجرای مجموعهای متنوع از برنامهها طراحی میشوند، کارخانه هوش مصنوعی تنها یک هدف دارد: تولید توکن. هر توکن واحدی از دانش یا نتیجهٔ پردازش است که ارزش آن به میزان هوشمندی و سرعت تولیدش بستگی دارد. هوانگ این فرایند را همانند خطوط تولید صنعتی توصیف کرد که در آنها مواد خام داده به محصول نهایی یعنی بینش و تصمیم تبدیل میشود. در این چارچوب، زیرساخت محاسباتی نقشی مشابه تجهیزات سنگین در کارخانههای کلاسیک ایفا میکند.
فلوِ تولید توکن، نرخ تولید و معیارهای بهرهوری (tokens/sec per $)
هوانگ معیارهای جدیدی برای سنجش کارایی دیتاسنتر معرفی کرد. او گفت که در کارخانههای هوش مصنوعی، شاخصهای سنتی مانند سرعت پردازش خام کافی نیستند؛ بلکه باید بر معیارهایی مانند «تعداد توکن تولیدشده در هر ثانیه بهازای هر دلار» تمرکز کرد. این معیار بیانگر نسبت مستقیم میان بهرهوری و هزینهٔ کل مالکیت (TCO) است. وی افزود که سیستمهایی نظیر معماری Grace Blackwell و اتصال NVLink 72، با افزایش نرخ تولید توکن و کاهش هزینهٔ انرژی، توانستهاند این نسبت را به سطحی بیسابقه برسانند.
در بخش پایانی این مبحث، هوانگ به چالشهای انرژی و مقیاسپذیری اشاره کرد و یادآور شد که بهبود بازده طیفی و پردازش در لبه (Edge) برای پایداری زیستمحیطی حیاتی است. او کارخانههای هوش مصنوعی را ستون فقرات اقتصاد دیجیتال آینده دانست؛ واحدهایی که داده را به تصمیم و تصمیم را به ارزش اقتصادی تبدیل میکنند. از نظر او، هر صنعتی که به دنبال مزیت رقابتی در عصر جدید باشد، ناگزیر باید به کارخانهای برای تولید هوش تبدیل شود؛ کارخانهای که ارزش آن نه در حجم اطلاعات، بلکه در کیفیت و سرعت پردازش معنا مییابد.
طراحی همزمان (Extreme Co-Design) سختافزار–نرمافزار و معماری Blackwell
انویدیا در سخنرانی خود بر ضرورت «طراحی همزمان» یا Extreme Co-Design برای عبور از محدودیتهای قانون مور تأکید کرد. همطراحی یکپارچه، لایههای مختلف فناوری را با هم ادغام میکند. این رویکرد ریزمعماری تراشه را بهینه میسازد. این روش چیدمان حافظه را همزمان توسعه میدهد. توپولوژی شبکه درونسیستمی نیز در این فرآیند طراحی میشود. کتابخانههای نرمافزاری به صورت موازی تکامل پیدا میکنند. معماری مدلهای یادگیری نیز در این چارچوب شکل میگیرد. این روش یکپارچه نتایج چشمگیری ایجاد میکند. این فرآیند پیشرفتهای نمایی در عملکرد به ارمغان میآورد. این رویکرد هزینه کل مالکیت را به طور قابل توجهی کاهش میدهد.

جنسن هوانگ توضیح داد که تنها با تفکر همزمان در هر لایه از پشته میتوان از پسِ نیازهای محاسبات استدلال (thinking) و تولید توکن در مقیاس صنعتی برآمد. این رویکرد اجازه میدهد تا هر قطعه سختافزار دقیقاً برای نوع بار کاری مدلها بهینه شود و در نهایت نرخ تولید توکن بهطرزی معنادار افزایش یابد.
اجرای عملی این فلسفه در معماری Blackwell و سامانههای رک-مقیاس مانند GB300 و Vera Rubin مشهود است؛ ترکیب MVLink72 برای پهنایباند All-to-All، تجمیع HBM روی اینترپوزر سفارشی و سوئیچهای Spectrum-X برای مسیریابی مخصوص AI، همگی نمونههایی از همطراحیاند. نتیجهٔ این همگراسازی، افزایش دهبرابری عملکرد در برخی بارهای کاری و کاهش چشمگیر هزینه توکنها است؛ بدین ترتیب چرخهٔ مجازی رشدِ اکوسیستم CUDA-محور شتاب میگیرد و سرمایهگذاریهای عظیم CSPها توجیهپذیر میشود. توضیحات فنی و جزئیات این معماری در متن سخنرانی اصلی ارائه شده است.
بازگشت تولید تراشه به آمریکا و پیامدهای راهبردی
جنسن هوانگ در سخنرانی خود بارها به بازگرداندن تولید سختافزارهای پیشرفته به خاک ایالات متحده تأکید کرد و اعلام نمود که نسلهای جدید پردازندهٔ Blackwell و سامانههای GB300 در آمریکا تولید و مونتاژ خواهند شد. وی فرایند تولید را نقطهای کلیدی برای امنیت زنجیرهٔ تأمین و استقلال فناورانه تلقی کرد و بر لزوم سرمایهگذاری ملی برای احیای ظرفیتهای صنعتی تاکید نمود. این بازگشتِ تولید نه تنها به ایجاد اشتغال فنی و زنجیرهٔ تأمین داخلی میانجامد، بلکه موقعیت ایالات متحده در زمینهٔ زیرساختهای حیاتی محاسباتی را تقویت میکند.
از ویفر تا رک: مراحل تولید Blackwell و مونتاژ رک در ایالات متحده
در توضیح مراحل عملیاتی، هوانگ به جزئیاتِ فنیِ تولید پرداخت: آغاز از ویفر سیلیکونی در آریزونا، پردازش چندصدمرحلهای لیتوگرافی با استفاده از EUV، و سپس مونتاژ تودههای حافظهٔ HBM در ایندیانا. مهندسان Blackwell دیها را روی اینترپوزرهای سفارشی قرار میدهد و ۱۲۸ یا بیشتر استکهای HBM را با اتصال TSV ادغام میکنند. سپس اجزای مختلف شامل تراشهها، ماژولهای شبکهٔ ConnectX و DPUهای BlueField در قالب کامپوننتهای GB300 سرهمبندی میشود. فناوری MVLink و MVLink switch با ایجاد پهنایباند All-to-All و کابلبندی تخصصی امکان تشکیلِ یک «ابر-GPU» مجازی را فراهم میسازد؛ بستههایی که در نهایت به رکهایی با میلیونها قطعه و تِرا-ترانزیستورها تبدیل میشوند.

اهمیت اقتصادی و راهبردی این جریان تولید را نمیتوان نادیده گرفت: تولید داخلی Blackwellها به بازتعریف زنجیرهٔ ارزش نیمهرسانا و خدمات فوقالعاده محاسباتی منتهی خواهد شد. از منظر ملی، داشتن ظرفیت تولید محاسباتی در داخل کشور، قابلیتهای دفاعی و تحقیقاتی را تقویت میکند و از وابستگی به منابع خارجی میکاهد. همچنین، این تحول میتواند محرکی برای سرمایهگذاریهای بیشتر در زیرساختهای انرژی، آموزش نیروی انسانی و توسعهٔ اکوسیستم تأمینکنندگان محلی باشد؛ مجموعهای از اثراتِ همافزا که بازتولید صنعتیِ مبتنی بر هوش مصنوعی را تسریع میکند.
دوقلو دیجیتال و Omniverse DSX: طراحی، شبیهسازی و عملیات گیگافکتوری
در بخش پایانی سخنرانی، جنسن هوانگ از مفهوم «دوقلوی دیجیتال» بهعنوان حلقهٔ اتصال میان طراحی فیزیکی و شبیهسازی مجازی یاد کرد. او توضیح داد که پلتفرم Omniverse DSX برای مهندسان صنعتی و مراکز داده نسل جدید توسعه یافته است تا بتوانند یک مدل دیجیتال کامل از کارخانه یا مرکز پردازش بسازند و پیش از اجرای واقعی، همهٔ رفتارها را در محیطی شبیهسازیشده بیازمایند. این دوقلو دیجیتال، امکان بررسی جزئیات جریان هوا، توزیع حرارت، مسیر کابلها و جریان انرژی را با دقت مهندسی فراهم میکند و بدین ترتیب از خطاهای پرهزینه در طراحی فیزیکی جلوگیری میکند.
هوانگ با اشاره به نقش CUDA در شبیهسازیهای ترمال و الکتریکی تأکید کرد که طراحی دیتاسنتر دیگر صرفاً بر پایهٔ توان سختافزاری انجام نمیشود. بلکه بهینهسازیِ انرژی، خنکسازی و چگالی محاسبات نیز باید در قالب مدلهای عددی دقیق بررسی شود. در Omniverse DSX، هر رک و هر ماژول با جزئیات ترمال مدل میشود تا جریان حرارت و مصرف برق بهینه گردد. وی افزود که این شبیهسازیها نهتنها موجب کاهش هزینههای عملیاتی و مصرف انرژی میشوند. بلکه امکان طراحی ماژولار و نصب سریع در مقیاس گیگافکتوری را نیز فراهم میکنند. از نظر او، همگرایی طراحی دیجیتال، انرژی پایدار و زیرساخت هوشمند، گام نهایی در مسیر تحقق کارخانههای هوش مصنوعی است. جایی که مهندسی، علم و محاسبات در یک چرخهٔ پیوسته و شفاف ادغام میشوند.




