مواد پیشرفتههوش مصنوعی

تأثیر هوش مصنوعی مولد در صنعت نیمه‌هادی

افزایش علاقه روزافزون و بیشتر شدن استفاده از هوش مصنوعی مولد به افزایش تقاضا در نیمه‌هادی‌ها منجر می‌شود و صنعت را به نوآوری سریع‌تر و تولید تراشه‌های توانمندتر و کارآمدتر سوق می‌دهد.

در این مقاله به تأثیر هوش مصنوعی مولد در صنعت نیمه‌هادی می‌پردازیم. مقاله «نیمه‌هادی چیست» علاوه بر معرفی صنعت نیمه‌هادی، راهبردهای عمومی برای آن را شرح می‌دهد. در این مقاله ضمن بسط بیشتر این موضوع شرح خواهیم داد که هوش مصنوعی مولد، جهش بزرگی را در صنعت نیمه‌هادی ایجاد خواهد کرد.

افزایش علاقه روزافزون و بیشتر شدن استفاده از هوش مصنوعی مولد به افزایش تقاضا در نیمه‌هادی‌ها منجر می‌شود و صنعت را به نوآوری سریع‌تر و تولید تراشه‌های توانمندتر و کارآمدتر سوق می‌دهد. از آنجایی که تب استفاده از برنامه‌های هوش مصنوعی مولد (gen AI) مانند ChatGPT جهان را در فراگرفته، تقاضا برای توان محاسباتی به شدت افزایش می‌یابد. صنعت نیمه‌هادی خود را در حال نزدیک شدن به یک منحنی S جدید می‌بیند و سوال اساسی برای مدیران این است که آیا این صنعت قادر به همراهی خواهد بود یا خیر.

رهبران هزینه‌های هنگفتی برای گسترش دیتاسنتر و کارخانه‌های ساخت نیم‌رسانا (fabs) متقبل شده‌اند. در حالی که همزمان در حال بررسی پیشرفت‌ها در طراحی تراشه، مواد و معماری برای پاسخگویی به نیازهای در حال تحول کسب‌وکار مبتنی بر هوش مصنوعی مولد نیز هستند.

چندین سناریو برای تأثیر هوش مصنوعی مولد در بازارهای B2B وجود دارد. همه سناریوها منجر به افزایش گسترده در تقاضای محاسباتی (و در نتیجه ویفر) می‌گردد. این سناریوها بر مراکز داده تمرکز دارند و در عین حال اذعان می‌کنند که پیامدهایی برای دستگاه‌های جدید نظیر گوشی‌های هوشمند وجود دارد اما در مقیاس بسیار کوچک‌تر. در حالی که حتی سناریوهایی که بلندپروازانه‌تر هستند نیز قابل قبول هستند، پیامدهای مربوط به تعداد مورد نیاز فاب و تأمین انرژی لازم برای مراکز داده، کار را سخت می‌کند.

مولفه‌های تقاضا برای پردازش در هوش مصنوعی مولد

افزایش تقاضا برای برنامه‌های هوش مصنوعی و هوش مصنوعی مولد، با افزایش متناسبی در تقاضای محاسباتی همراه است. با این حال، برای رهبران نیمه‌هادی ضروری است که منشأ این تقاضا و نحوه اعمال هوش مصنوعی مولد را درک کنند. انتظار داریم دو نوع برنامه مختلف برای هوش مصنوعی مولد ببینیم: موارد کاربردی در B2C و B2B. در هر دو بازار B2C و B2B، تقاضا برای هوش مصنوعی مولد را می‌توان به دو بخش اصلی طبقه بندی کرد: آموزش (training) و استنتاج (inference). اجراهای آموزشی معمولاً به مقدار قابل توجهی داده و محاسبات فشرده نیاز دارند. بالعکس، استنتاج معمولاً به محاسبات بسیار کمتری در هر اجرای مورد کاربرد نیاز دارد. برای توانمندسازی رهبران نیمه‌هادی‌ها برای هدایت پیچیدگی‌ها و خواسته‌های این بازارها، شش کهن الگوی کاربردی وجود دارد که در ادامه معرفی می‌شوند.

شش کهن الگوی کاربردی B2B برای کاربردهای هوش مصنوعی مولد و حجم کاری آن

تحلیل‌های گروه مشاوران مکنزی پیشنهاد می‌کند که برنامه‌های B2C حدود 70 درصد از تقاضای محاسباتی هوش مصنوعی مولد را تشکیل دهد. بنابراین انتظار می‌رود موارد کاربرد B2B حدود 30 درصد تقاضا را تشکیل دهد. این موارد شامل کاربردهایی نظیر ایجاد محتوای پیشرفته برای مشاغل (به عنوان مثال، ایجاد کد با کمک هوش مصنوعی مولد)، رسیدگی به سؤالات مشتری، یا ایجاد گزارش مالی استاندارد است.

کاربردهای B2B در سراسر صنعت و کارکردهای آن در یکی از شش کهن الگوی زیر قرار می‌گیرند:

  • کاربردهای برنامه‌نویسی و توسعه نرم‌افزار که کد را تفسیر و تولید می‌کنند.
  • کاربردهای تولید محتوای خلاقانه که منجر به تولید اسناد و برقراری ارتباطات می‌شود (مثلاً برای تولید مطالب بازاریابی)
  • کاربردهای تعامل با مشتری که خدمات خودکار مشتری را برای دسترسی، پرس‌و‌جو و جمع آوری داده‌ها پوشش می‌دهد (به عنوان مثال، رسیدگی به سؤالات مشتری از طریق ربات چت)
  • کاربردهای نوآوری که محصول و موادی را برای فرآیندهای تحقیق و توسعه تولید می‌کنند (به عنوان مثال، طراحی یک مولکول دارویی)
  • کاربردهای ساده‌سازی و خلاصه‌سازی که با استفاده از مجموعه داده‌های ساختاریافته، بینش‌ها را خلاصه و استخراج می‌کنند (به عنوان مثال، برای تولید گزارش‌های مالی استاندارد)
  • کاربردهای مختصر پیچیده که با استفاده از مجموعه داده‌های بدون ساختار یا بزرگ بینش‌ها را خلاصه یا استخراج می‌کند (مثلاً برای ترکیب یافته‌ها در تصاویر بالینی مانند MRI یا سی‌تی اسکن)

تحلیل هزینه-منفعت موارد کاربرد B2B هوش مصنوعی

مکنزی این شش مورد کاربرد متنوع و پیچیده B2B را با توجه به هزینه محاسباتی آنها برای ارائه خدمات و ایجاد ارزش هوش مصنوعی مولد در شکل زیر سازماندهی می‌کند. با تعریف هزینه خدمت و ایجاد ارزش، تصمیم گیرندگان می‌توانند به طور ماهرانه‌تری در خصوص موارد استفاده B2B جستجو کنند و هنگام اتخاذ تصمیمات انتخاب‌های آگاهانه‌ای داشته باشند. این تجزیه و تحلیل همچنین شامل زیرساخت‌های فرامقیاس کننده IaaS نیز می‌شود. این موارد شامل سخت‌افزار محاسباتی، اجزای سرور، زیرساخت فناوری اطلاعات، مصرف انرژی و هزینه‌های تخمینی استعداد می‌باشد. ایجاد ارزش هوش مصنوعی مولد از طریق معیارهایی مانند بهبود بهره‌وری و صرفه‌جویی در هزینه نیروی کار سنجیده می‌شود.

موارد کاربرد هوش مصنوعی به همراه هزینه و فایده

شکل 1 : کاربردهای B2B با ایجاد ارزش و هزینه خدمت تعریف می‌شوند

سناریوهای تقاضای هوش مصنوعی مولد

همزمان که سازمان‌ها پیچیدگی‌های بکارگیری هوش مصنوعی مولد را دنبال می‌کنند، استفاده استراتژیک از این کهن‌الگوها ضروری می‌شود. عواملی مانند اقتصاد پذیرش هوش مصنوعی مولد، کارایی الگوریتم، و پیشرفت‌های سخت‌افزاری مستمر در هر دو سطح اجزا و سیستم، بر پذیرش هوش مصنوعی مولد و پیشرفت فناوری تأثیر می‌گذارند. در خصوص تقاضای هوش مصنوعی مولد بر برنامه‌های کاربردی B2B و B2C سه سناریو وجود دارد:

  • تقاضا-پایه
  • پذیرش محافظه‌کارانه
  • و پذیرش شتاب‌یافته

سناریوی تقاضا-پایه با مجموعه‌ای از مفروضات مورد نیاز، مانند پیشرفت‌های فن‌آوری پذیرش سریع آن مبتنی بر مدل‌های تجاری سرو کار دارد. سناریوهای پذیرش محافظه‌کارانه و پذیرش شتاب‌یافته نیز به ترتیب نشان دهنده پذیرفتن با احتیاط چارچوب جدید و پذیرش سریع و بدون بررسی کافی آن می‌باشد. تحلیل مک‌کینزی تخمین می‌زند که تا سال 2030 در سناریوی پایه، کل تقاضای محاسباتی هوش مصنوعی مولد می‌تواند به  25×1030 فلاپس برسد که تقریباً 70 درصد آن مربوط به برنامه‌های B2C و 30 درصد آن برنامه‌های B2B است.

تقاضای هوش مصنوعی در بازار B2B و B2C

شکل 2 : کل تقاضای سالیانه برای برنامه‌های B2C و B2B

سناریوهای تقاضای پردازش در بازار B2C

تقاضای محاسباتی B2C توسط تعداد مصرف‌کنندگانی که با هوش مصنوعی مولد درگیر هستند، سطح تعامل آنها و پیامدهای محاسباتی آن بدست می‌آید. به طور خاص، حجم‌های کاری استنتاج B2C با تعداد تعاملات هوش مصنوعی مولد به ازای هر کاربر، تعداد کاربران هوش مصنوعی مولد و FLOP در هر تعامل اولیه و پیشرفته کاربر تعیین می‌شود. حجم کار آموزشی بر اساس تعداد دوره‌های آموزشی در سال، تعداد ارائه دهندگان مدل هوش مصنوعی مولد، و FLOP در هر آموزش اجرا شده توسط مدل‌های مختلف هوش مصنوعی مولد تعیین می‌شود. برای همه سناریوها، ضروری است که شرکت‌ها بتوانند یک مدل تجاری پایدار ایجاد کنند.

پذیرش پایه: تا سال 2030، میانگین انتظاری تعداد تعاملات روزانه به ازای هر کاربر گوشی هوشمند (که یک تعامل با یک سری دستورات است) برای برنامه‌های اصلی مصرف کننده، مانند ایجاد پیش‌نویس ایمیل، 10 خواهد بود. مفروضات اساسی که سناریوی پایه B2C را فعال می‌کند عبارتند از: پیشرفت‌های فن‌آوری پایدار، پیشرفت‌های نظارتی مطلوب، و پذیرش مداوم کاربران در حال رشد است.

پذیرش محافظه‌کارانه: این سناریو شامل پذیرش محتاطانه از سوی مصرف‌کنندگان است. این احتیاط به دلیل نگرانی‌های مداوم مربوط به حریم خصوصی داده‌ها، پیشرفت‌های نظارتی، و پیشرفت‌های تدریجی در فناوری است. این نوع پذیرش تقریباً نصف پذیرش پایه است.

پذیرش شتاب‌یافته: این سناریو نشان دهنده درجه بالایی از اعتماد به فناوری و پذیرش گسترده کاربران است. محرک‌های این سناریو می‌توانند مدل‌های تجاری جدید جذاب، پیشرفت‌های فن‌آوری قابل توجه و تجربیات کاربری خوب باشند.

سناریوهای تقاضای B2B

پذیرش موارد کاربردی از هوش مصنوعی مولد در بخش B2B به طور قابل توجهی تحت تأثیر هزینه تأمین تراشه‌های نیمه‌هادی است. شرکت‌ها باید بتوانند سرمایه‌گذاری خود را در زیرساخت‌های محاسباتی افزایش دهند. همچنین باید اطمینان حاصل کنند که هزینه خدمات کمتر از تمایل شرکت به پرداخت است.

در زمینه موارد کاربرد  B2B، تجزیه و تحلیل مکنزی نشان می‌­دهد که از شش کهن‌الگوی مورد استفاده، تنها پنج مورد برای پذیرش گسترده از نظر اقتصادی مقرون به صرفه هستند(شکل زیر). انتظار نمی­‌رود کهن الگوی ششم مورد استفاده قار گیرد. چرا که ارزش محدودی که ایجاد می‌شود در مقایسه با هزینه‌های آن توجیه کافی ارائه نمی‌کند.

کهن الگوها

شکل 3 : تخمین می‌زنیم تنها 5 مورد از 6 موارد کاربرد کهن‌الگوها، به طور گسترده تا سال 2023 مورد استفاده قرار می‌گیرند.

پذیرش پایه

سناریوی پایه نرخ پذیرش میانی را بین 8 تا 28 سال فرض می‌کند که نشان می‌دهد موارد استفاده B2B در 18 سال به 90 درصد پذیرش می‌رسند. علاوه بر این، تحلیل مک‌کینزی تخمین می‌زند که کسب‌وکارها از سال 2024 به ارزش خود پی خواهند برد. تضمین سرمایه‌گذاری برای ظرفیت تولید، تولید ویفر، تأمین ظرفیت محاسباتی و آموزش افراد برای استفاده از خدمات جدید، همگی زمان‌بر است. به این ترتیب، پیش از دستیابی به ارزش، زمان تولید ویفرها را تقریباً دو سال فرض می‌کنیم. انتظار می‌رود این تحقق تجاری تقریباً 25 درصد از ارزش جذب شده را تا سال 2030 برای موارد استفاده اقتصادی مقرون به صرفه تولید کند. در این سناریو، ما فرض می‌کنیم که ارزش اضافی حاصل از تمام پیشرفت‌های کوچک مقیاس در بهره‌وری نیروی کار از همان نسبت کلی به عنوان پتانسیل ارزش محاسبه‌شده از شش کهن الگوی مورد استفاده پیروی می‌کند.

پذیرش محافظه‌کارانه

این سناریو نرخ پذیرش حدود 90 درصد را در طی 28 سال فرض می‌کند که حدود 15 درصد آن تا سال 2030 محقق می‌شود. این کاهش سرعت را می‌توان به ترکیبی از عوامل، از جمله محدودیت‌های نظارتی، نگرانی‌های مربوط به حریم خصوصی داده‌ها و چالش‌های پردازش داده‌ها نسبت داد.

پذیرش شتاب‌یافته

این سناریو نرخ پذیرش تقریباً 90 درصد را در حدود 13 سال فرض می‌کند. این شتاب مشروط به کاتالیزورهایی مانند مدل‌های کسب‌وکار جذاب، پیشرفت سریع فناوری، یا مقررات مطلوب است. به عنوان مثال، ساختارهای سخت‌افزاری مخرب به طور قابل ملاحظه‌ای هزینه سرویس را کاهش می‌دهد. علاوه بر این، پیشرفت‌ها در فرآیند اعتبارسنجی نرم‌افزاری ممکن است به طور قابل توجهی کارایی راه‌حل‌های هوش مصنوعی مولد را افزایش دهد. عواملی از این قبیل ممکن است منحنی اقتباس را تسریع کنند و تا سال 2030 باعث افزایش قابل توجه اجرای هوش مصنوعی در صنعت نیمه‌هادی شوند.

پذیرش کاربردی هوش مصنوعی مولد در بخش B2B به طور قابل توجهی تحت تأثیر کفایت و هزینه تامین تراشه‌های نیمه‌هادی است.

زیرساخت‌های مرکز داده و روندهای سخت‌افزاری هوش مصنوعی مولد

بخشی از تأثیر هوش مصنوعی مولد در نیمه‌هادی در زیرساخت‌های مرکز داده می‌باشد. همزمان با در نظر گرفتن سناریوهایی برای تقاضای محاسباتی هوش مصنوعی مولد، رهبران نیمه‌رسانا نیاز دارند تا با تغییرات در سخت‌افزار و زیرساخت‌های زیربنایی، نظیر زیرساخت‌های مرکز داده، سرورها و تراشه‌های نیمه‌رسانا سازگار شوند.

زیرساخت مرکز داده

برنامه‌های کاربردی هوش مصنوعی مولد معمولاً روی سرورهای اختصاصی و در مراکز داده اجرا می‌شوند. در نگاه اول، مراکز داده هوش مصنوعی ممکن است شبیه به مراکز داده سنتی به نظر برسند، اما تفاوت‌های قابل توجهی وجود دارد.

بزرگترین تفاوت بین مراکز داده سنتی و مراکز داده هوش مصنوعی، چگالی رک (Rack densities) یعنی توان مصرفی یک ردیف از سرورها است. مراکز داده عمومی‌ دارای چگالی توان رک 5 تا 15 کیلووات هستند. این در حالی است که بار پردازشی آموزش (training) در هوش مصنوعی مولد می‌تواند 100 کیلو وات یا در برخی موارد امروزه تا 150 کیلووات مصرف کنند. انتظار می‌رود این عدد افزایش‌یافته و تا چند سال آینده به 250 تا 300 کیلووات برسد. علاوه بر این، با افزایش چگالی توان رک، خنک‌کننده رک از خنک کننده مبتنی بر هوا به خنک کننده مایع تغییر می‌کند. خنک کننده مایع مستقیم تراشه (Direct-to-chip liquid cooling) و خنک‌کننده کاملاً شناور (full-immersion cooling) نیز به طراحی‌های جدید سرور و رک نیاز دارد تا موارد اضافی را در خود جای دهد.

سرورها

در پاسخ به تقاضای فزاینده‌ای که برای توان محاسباتی در هوش مصنوعی وجود دارد، سرورها از واحدهای پردازش گرافیکی با کارایی بالا (GPU) یا تراشه‌های تخصصی هوش مصنوعی، مانند تراشه‌های ASIC استفاده می‌کنند. دلیل این استفاده این است که به‌طور کارآمد بارهای کاری هوش مصنوعی مولد را از طریق پردازش موازی مدیریت کنند.

انتظار می‌رود که زیرساخت‌های مورد نیاز هوش مصنوعی در دو شاخه دسته‌بندی شوند: آموزش (Training) و استنتاج (Inference). دلیل این امر این است که تقاضای محاسباتی برای استنتاج خاص‌تر است و به هزینه بسیار کمتری نیاز دارد.

آموزش (Training): انتظار می‌رود معماری سرور آموزش مشابه معماری‌های خوشه‌ای با کارایی بالای امروزی باشد که در آن همه سرورهای یک مرکز داده به اتصال با پهنای باند بالا و تأخیر کم متصل هستند. معماری سرورهای AI با عملکرد بالا از دو واحد CPU و هشت GPU برای محاسبه استفاده می‌کند. انتظار می‌رود تا سال 2030 بیشتر بارهای آموزشی با استفاده از این نوع ترکیب (CPU+GPU) اجرا شوند.

استنتاج (Inference): در حال حاضر پردازش مربوط به استنتاج بر روی زیرساخت‌هایی اجرا می‌شود که مشابه زیرساخت‌های آموزش است. با افزایش پذیرش هوش مصنوعی مولد توسط مصرف‌کننده‌ها و کسب‌وکارها، انتظار می‌رود حجم کار بیشتر به سمت استنتاج برود. این منجر به گسترش سخت‌افزارهای تخصصی می‌شود. سخت‌افزارهایی که هزینه کمتر، بهره‌وری انرژی بالاتر و عملکرد سریع‌تر یا بهتری برای کارهای بسیار تخصصی دارند.

انتظار می‌رود در سال 2030، شتاب‌دهنده‌های هوش مصنوعی با تراشه‌های ASIC عمده بار پردازشی را بر عهده بگیرند؛ چرا که این تراشه‌ها در وظایف خاص هوش مصنوعی بهینه عمل می‌کنند.

تقاضای ویفر هوش مصنوعی مولد در صنعت نیمه‌هادی

تجزیه و تحلیل مکنزی تقاضای ویفر با کارایی بالا را بر اساس تقاضای محاسباتی و نیاز سخت‌افزاری آن تخمین می‌زند:

  • تراشه‌های منطقی (CPU،GPU و شتاب‌دهنده‌های هوش مصنوعی)
  • تراشه‌های حافظه (حافظه با پهنای باند بالا [HBM] و حافظه با نرخ دو برابری داده [DDR])
  • تراشه‌های ذخیره‌سازی داده (تراشه‌های NAND[not-and])
  • تراشه‌های نیمه‌رسانای برق (Power semiconductor chips)
  • فرستنده‌های نوری (optical transceivers)
  • و سایر اجزا

در بخش‌های بعدی، تراشه‌های منطق، HBM، DDR و NAND را با دقت بیشتری بررسی خواهیم کرد. فراتر از منطق و حافظه، پیش‌بینی می‌کنیم که افزایش تقاضا برای انواع دیگر دستگاه‌ها وجود داشته باشد. به عنوان مثال، نیمه‌هادی‌های برق تقاضای بیشتری خواهند داشت زیرا سرورهای هوش مصنوعی مولد مقادیر بیشتری انرژی مصرف می‌کنند. ملاحظات دیگر اجزای نوری است، مانند مواردی که در ارتباطات استفاده می‌شود، که انتظار می‌رود در طول زمان به فناوری‌های نوری تبدیل شوند. ما قبلاً این انتقال را برای شبکه‌های راه دور به منظور کاهش مصرف انرژی و در عین حال افزایش نرخ انتقال داده دیده‌ایم. برای تحریک نوآوری در تقریباً همه حوزه‌های صنعت، لازم است این الزامات جدید با سطح بالای سرمایه‌گذاری پیش‌بینی‌شده ترکیب شود.

انتظار می‌رود در سال 2030 شتاب‌دهنده‌های هوش مصنوعی با تراشه‌های ASIC که عمده بار کاری را بر عهده می‌گیرند و در وظایف خاص هوش مصنوعی بهینه عمل می‌کنند بیشتر بکار رود.

تراشه‌های منطقی

تقاضای تراشه منطقی به نوع تراشه محاسباتی هوش مصنوعی و نوع سرور برای بارهای کاری آموزش و استنتاج بستگی دارد. همانطور که قبلاً بحث شد، تا سال 2030، پیش‌بینی می‌کنیم که اکثر تقاضای محاسباتی هوش مصنوعی مولد در FLOP از بارهای کاری استنتاج حاصل شود. در حال حاضر، سه نوع سرور هوش مصنوعی وجود دارد که می‌توانند استنتاج و بارهای کاری آموزشی را مدیریت کنند:

  • CPU+GPU
  • شتاب‌هوش مصنوعی+CPU
  • و فیوژن CPU+GPU

امروزه CPU+GPU متداول‌تر بوده و برای استنتاج و بارهای کاری آموزشی استفاده می‌شود. انتظار می‌رود در سال 2030 شتاب‌دهنده‌های هوش مصنوعی با تراشه‌های ASIC که عمده بار کاری را بر عهده می‌گیرند و در وظایف خاص هوش مصنوعی بهینه عمل می‌کنند بیشتر بکار گرفته شود. از سوی دیگر، GPU و سرورهای فیوژن به دلیل تطبیق پذیری آنها در انجام انواع مختلف وظایف، برای مدیریت بارهای آموزشی ایده آل هستند (شکل زیر).

بار پردازشی در هوش مصنوعی

شکل 4: پیش‌بینی می‌شود معماری سرور به سمت پردازشگرهایی با شتاب‌دهنده هوش مصنوعی سوق پیدا کنند.

پیش‌بینی تقاضای ویفر

در سال 2030، مک کینزی تخمین می‌زند که تقاضای ویفر منطقی از برنامه‌های هوش مصنوعی غیر مولد تقریباً 15 میلیون ویفر خواهد بود. حدود هفت میلیون از این ویفرها با استفاده از گره‌های فناوری بیش از سه نانومتر و تقریباً هشت میلیون ویفر با استفاده از گره‌های مساوی یا کمتر از سه نانومتر تولید خواهند شد. تقاضای هوش مصنوعی مولد به 1.2 تا 3.6 میلیون ویفر اضافی نیاز دارد که با استفاده از گره‌های فناوری برابر یا کمتر از سه نانومتر تولید می‌شود.

بر اساس برنامه‌ریزی منطق فعلی،پیش‌بینی می‌شود که در سال 2030 می‌توان 15 میلیون ویفر با استفاده از گره‌های فناوری معادل یا کمتر از هفت نانومتر تولید کرد. بنابراین، تقاضای هوش مصنوعی مولد با استفاده از گره‌های فناوری برابر یا کمتر از سه نانومتر، شکاف عرضه بالقوه‌ای بین یک میلیون تا حدود چهار میلیون ویفر ایجاد می‌کند. برای پر کردن این شکاف، تا سال 2030 به 3 تا 9 ابزار منطقی جدید نیاز است (شکل زیر).

تقاضای ویفر هوش مصنوعی مولد

شکل 5 : تا سال 2030، هوش مصنوعی مولد تقاضای ویفر را به طور قابل ملاحظه‌ای افزایش می‌دهد.

DDR و HBM

سرورهای هوش مصنوعی مولد از دو نوع DRAM استفاده می‌کنند:

  • HBM، متصل به GPU یا شتاب دهنده‌های هوش مصنوعی
  • و  DDR RAM متصل به CPU.

HBM پهنای باند بالاتری دارد اما برای همان مقدار داده به سیلیکون بیشتری نیاز دارد.

با بزرگ‌تر شدن مدل‌های انتقال، سرورهای هوش مصنوعی مولد ظرفیت حافظه را افزایش می‌دهند. با این حال، رشد ظرفیت حافظه ساده نیست و چالش‌هایی را برای طراحی سخت افزار و نرم افزار ایجاد می‌کند. اولاً، صنعت با مشکل دیوار حافظه (Memory wall) مواجه است که در آن ظرفیت حافظه و پهنای باند گلوگاه عملکرد محاسباتی در سطح سیستم است. اینکه صنعت چگونه با مشکل دیوار حافظه مقابله خواهد کرد، همچنان یک سوال باز است. حافظه SRAM در تراشه‌های مختلف برای افزایش حافظه محاسباتی آزمایش می‌شود، اما هزینه بالای آن پذیرش گسترده را محدود می‌کند. به عنوان مثال، الگوریتم‌های آینده ممکن است به حافظه کمتری در هر استنتاج نیاز داشته باشند و رشد تقاضای کل حافظه را کندتر کند.

ثانیاً، شتاب‌دهنده‌های هوش مصنوعی در مقایسه با معماری CPU+GPU از نظر حافظه سبک‌تر هستند و ممکن است تا سال 2030 که حجم کار استنتاج رشد کند، محبوب‌تر شوند. این می‌تواند به معنای رشد بالقوه کندتر در تقاضای حافظه باشد.

با بزرگ‌تر شدن مدل‌های انتقال، سرورهای هوش مصنوعی مولد ظرفیت حافظه را افزایش می‌دهند. با این حال، رشد ظرفیت حافظه ساده نیست و چالش‌هایی را برای طراحی سخت افزار و نرم افزار ایجاد می‌کند.

سناریوهای تقاضای DRAM

با توجه به این عدم قطعیت‌ها، ما دو سناریو تقاضای DRAM را علاوه بر سناریوهای پذیرش پایه، محافظه کارانه و تسریع شده در نظر می‌گیریم: سناریوی “DRAM light”، که در آن شتاب دهنده‌های هوش مصنوعی در مقایسه با سیستم‌های مبتنی بر GPU در حافظه کم باقی می‌مانند، و یک سناریو “DRAM base” که در آن سیستم‌های مبتنی بر شتاب‌دهنده هوش مصنوعی از نظر تقاضای DRAM به سیستم‌های مبتنی بر GPU می‌رسند.

تا سال 2030، ما انتظار داریم که تقاضای DRAM از برنامه‌های هوش مصنوعی مولد پنج تا 13 میلیون ویفر در سناریوی DRAM light  باشد که به معنی چهار تا دوازده فاب اختصاصی است. در سناریوی DRAM base، تقاضای DRAM بین 7 تا 21 میلیون ویفر خواهد بود که به معنی 6 تا 18 فاب است.

حافظه NAND

حافظه NAND برای ذخیره سازی داده‌ها استفاده می‌شود. به عنوان مثال، برای سیستم عامل، داده‌های کاربر و ورودی و خروجی. در سال 2030، تقاضای NAND احتمالاً توسط سرورهای داده اختصاصی برای داده‌های ویدئویی و چند مدلی هدایت می‌شود. این داده‌ها به ذخیره‌سازی قابل توجهی نیاز دارند (به عنوان مثال، برای آموزش توالی‌های ویدئویی با وضوح بالا و بازیابی داده‌ها در طول استنتاج). انتظار می‌رود کل تقاضای NAND دو تا هشت میلیون ویفر باشد که مربوط به یک تا پنج فاب است. با توجه به اینکه عملکرد مورد نیاز برای ذخیره سازی NAND هوش مصنوعی مولد مانند سرورهای فعلی خواهد بود، برآورده کردن این تقاضا در مقایسه با منطق و DRAM چالش برانگیزتر خواهد بود.

سایر اجزا

افزایش تقاضای محاسباتی باعث ایجاد تقاضای اضافی برای بسیاری از انواع تراشه‌های دیگر می‌شود. در این زمینه دو مورد قابل توجه است:

  • شبکه و ارتباط پرسرعت: هوش مصنوعی مولد به ارتباطات با پهنای باند بالا و تأخیر کم بین سرورها و بین اجزای مختلف سرورها نیاز دارد. برای ایجاد تمام اتصالات، تعداد بیشتری از اینترفیس‌ها و سوئیچ‌های شبکه مورد نیاز است. امروزه، این پیوندهای داخلی عمدتاً مبتنی بر مس هستند، اما انتظار می‌رود که اتصال نوری با افزایش پهنای باند و تأخیر کم، سهم بیشتری به دست آورد.
  • نیمه‌هادی‌های برق: سرورهای هوش مصنوعی به مقدار زیادی برق نیاز دارند و ممکن است در سال 2030 بیش از 10 درصد برق جهانی را مصرف کنند. رفع این چالش به نیمه‌هادی‌های برق زیادی در سرور و دستگاه‌های واقعی نیاز دارد.

جمع‌بندی هوش مصنوعی مولد در نیمه‌هادی

در جمع‌بندی اثرات هوش مصنوعی مولد بر صنعت نیمه‌هادی می‌توان گفت، افزایش تقاضا برای برنامه‌های کاربردی هوش مصنوعی مولد جدید، نیاز به قدرت محاسباتی را افزایش می‌دهد. این نیاز هم نوآوری نرم‌افزاری و هم سرمایه‌گذاری قابل توجهی در زیرساخت‌های مرکز داده و کارخانه‌های نیمه‌رسانا ایجاد می‌کند. با این حال، سؤال مهم برای رهبران صنعت این است که آیا بخش نیمه‌هادی قادر به پاسخگویی به تقاضا خواهد بود یا خیر. برای رویارویی با این چالش، رهبران نیمه‌هادی باید در نظر داشته باشند که به کدام سناریو اعتقاد دارند. سرمایه گذاری در ظرفیت تولید نیمه‌هادی‌ها و سرورها پرهزینه و زمان‌بر است. بنابراین ارزیابی دقیق چشم‌انداز برای بررسی پیچیدگی‌های انقلاب هوش مصنوعی مولد و ایجاد دیدگاهی از تأثیر آن بر صنعت نیمه‌هادی ضروری است.

منبع: Generative AI: The next S-curve for the semiconductor industry

امتیاز کاربران: 4.67 ( 3 رای)

سردبیر

سردبیر رصدخانه فناوری‌های نوظهور هستم. مشتاق مطالعه و انتشار دانش و تجربیات

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا