تأثیر هوش مصنوعی مولد در صنعت نیمههادی
افزایش علاقه روزافزون و بیشتر شدن استفاده از هوش مصنوعی مولد به افزایش تقاضا در نیمههادیها منجر میشود و صنعت را به نوآوری سریعتر و تولید تراشههای توانمندتر و کارآمدتر سوق میدهد.
در این مقاله به تأثیر هوش مصنوعی مولد در صنعت نیمههادی میپردازیم. مقاله «نیمههادی چیست» علاوه بر معرفی صنعت نیمههادی، راهبردهای عمومی برای آن را شرح میدهد. در این مقاله ضمن بسط بیشتر این موضوع شرح خواهیم داد که هوش مصنوعی مولد، جهش بزرگی را در صنعت نیمههادی ایجاد خواهد کرد.
افزایش علاقه روزافزون و بیشتر شدن استفاده از هوش مصنوعی مولد به افزایش تقاضا در نیمههادیها منجر میشود و صنعت را به نوآوری سریعتر و تولید تراشههای توانمندتر و کارآمدتر سوق میدهد. از آنجایی که تب استفاده از برنامههای هوش مصنوعی مولد (gen AI) مانند ChatGPT جهان را در فراگرفته، تقاضا برای توان محاسباتی به شدت افزایش مییابد. صنعت نیمههادی خود را در حال نزدیک شدن به یک منحنی S جدید میبیند و سوال اساسی برای مدیران این است که آیا این صنعت قادر به همراهی خواهد بود یا خیر.
رهبران هزینههای هنگفتی برای گسترش دیتاسنتر و کارخانههای ساخت نیمرسانا (fabs) متقبل شدهاند. در حالی که همزمان در حال بررسی پیشرفتها در طراحی تراشه، مواد و معماری برای پاسخگویی به نیازهای در حال تحول کسبوکار مبتنی بر هوش مصنوعی مولد نیز هستند.
چندین سناریو برای تأثیر هوش مصنوعی مولد در بازارهای B2B وجود دارد. همه سناریوها منجر به افزایش گسترده در تقاضای محاسباتی (و در نتیجه ویفر) میگردد. این سناریوها بر مراکز داده تمرکز دارند و در عین حال اذعان میکنند که پیامدهایی برای دستگاههای جدید نظیر گوشیهای هوشمند وجود دارد اما در مقیاس بسیار کوچکتر. در حالی که حتی سناریوهایی که بلندپروازانهتر هستند نیز قابل قبول هستند، پیامدهای مربوط به تعداد مورد نیاز فاب و تأمین انرژی لازم برای مراکز داده، کار را سخت میکند.
مولفههای تقاضا برای پردازش در هوش مصنوعی مولد
افزایش تقاضا برای برنامههای هوش مصنوعی و هوش مصنوعی مولد، با افزایش متناسبی در تقاضای محاسباتی همراه است. با این حال، برای رهبران نیمههادی ضروری است که منشأ این تقاضا و نحوه اعمال هوش مصنوعی مولد را درک کنند. انتظار داریم دو نوع برنامه مختلف برای هوش مصنوعی مولد ببینیم: موارد کاربردی در B2C و B2B. در هر دو بازار B2C و B2B، تقاضا برای هوش مصنوعی مولد را میتوان به دو بخش اصلی طبقه بندی کرد: آموزش (training) و استنتاج (inference). اجراهای آموزشی معمولاً به مقدار قابل توجهی داده و محاسبات فشرده نیاز دارند. بالعکس، استنتاج معمولاً به محاسبات بسیار کمتری در هر اجرای مورد کاربرد نیاز دارد. برای توانمندسازی رهبران نیمههادیها برای هدایت پیچیدگیها و خواستههای این بازارها، شش کهن الگوی کاربردی وجود دارد که در ادامه معرفی میشوند.
شش کهن الگوی کاربردی B2B برای کاربردهای هوش مصنوعی مولد و حجم کاری آن
تحلیلهای گروه مشاوران مکنزی پیشنهاد میکند که برنامههای B2C حدود 70 درصد از تقاضای محاسباتی هوش مصنوعی مولد را تشکیل دهد. بنابراین انتظار میرود موارد کاربرد B2B حدود 30 درصد تقاضا را تشکیل دهد. این موارد شامل کاربردهایی نظیر ایجاد محتوای پیشرفته برای مشاغل (به عنوان مثال، ایجاد کد با کمک هوش مصنوعی مولد)، رسیدگی به سؤالات مشتری، یا ایجاد گزارش مالی استاندارد است.
کاربردهای B2B در سراسر صنعت و کارکردهای آن در یکی از شش کهن الگوی زیر قرار میگیرند:
- کاربردهای برنامهنویسی و توسعه نرمافزار که کد را تفسیر و تولید میکنند.
- کاربردهای تولید محتوای خلاقانه که منجر به تولید اسناد و برقراری ارتباطات میشود (مثلاً برای تولید مطالب بازاریابی)
- کاربردهای تعامل با مشتری که خدمات خودکار مشتری را برای دسترسی، پرسوجو و جمع آوری دادهها پوشش میدهد (به عنوان مثال، رسیدگی به سؤالات مشتری از طریق ربات چت)
- کاربردهای نوآوری که محصول و موادی را برای فرآیندهای تحقیق و توسعه تولید میکنند (به عنوان مثال، طراحی یک مولکول دارویی)
- کاربردهای سادهسازی و خلاصهسازی که با استفاده از مجموعه دادههای ساختاریافته، بینشها را خلاصه و استخراج میکنند (به عنوان مثال، برای تولید گزارشهای مالی استاندارد)
- کاربردهای مختصر پیچیده که با استفاده از مجموعه دادههای بدون ساختار یا بزرگ بینشها را خلاصه یا استخراج میکند (مثلاً برای ترکیب یافتهها در تصاویر بالینی مانند MRI یا سیتی اسکن)
تحلیل هزینه-منفعت موارد کاربرد B2B هوش مصنوعی
مکنزی این شش مورد کاربرد متنوع و پیچیده B2B را با توجه به هزینه محاسباتی آنها برای ارائه خدمات و ایجاد ارزش هوش مصنوعی مولد در شکل زیر سازماندهی میکند. با تعریف هزینه خدمت و ایجاد ارزش، تصمیم گیرندگان میتوانند به طور ماهرانهتری در خصوص موارد استفاده B2B جستجو کنند و هنگام اتخاذ تصمیمات انتخابهای آگاهانهای داشته باشند. این تجزیه و تحلیل همچنین شامل زیرساختهای فرامقیاس کننده IaaS نیز میشود. این موارد شامل سختافزار محاسباتی، اجزای سرور، زیرساخت فناوری اطلاعات، مصرف انرژی و هزینههای تخمینی استعداد میباشد. ایجاد ارزش هوش مصنوعی مولد از طریق معیارهایی مانند بهبود بهرهوری و صرفهجویی در هزینه نیروی کار سنجیده میشود.
شکل 1 : کاربردهای B2B با ایجاد ارزش و هزینه خدمت تعریف میشوند
سناریوهای تقاضای هوش مصنوعی مولد
همزمان که سازمانها پیچیدگیهای بکارگیری هوش مصنوعی مولد را دنبال میکنند، استفاده استراتژیک از این کهنالگوها ضروری میشود. عواملی مانند اقتصاد پذیرش هوش مصنوعی مولد، کارایی الگوریتم، و پیشرفتهای سختافزاری مستمر در هر دو سطح اجزا و سیستم، بر پذیرش هوش مصنوعی مولد و پیشرفت فناوری تأثیر میگذارند. در خصوص تقاضای هوش مصنوعی مولد بر برنامههای کاربردی B2B و B2C سه سناریو وجود دارد:
- تقاضا-پایه
- پذیرش محافظهکارانه
- و پذیرش شتابیافته
سناریوی تقاضا-پایه با مجموعهای از مفروضات مورد نیاز، مانند پیشرفتهای فنآوری پذیرش سریع آن مبتنی بر مدلهای تجاری سرو کار دارد. سناریوهای پذیرش محافظهکارانه و پذیرش شتابیافته نیز به ترتیب نشان دهنده پذیرفتن با احتیاط چارچوب جدید و پذیرش سریع و بدون بررسی کافی آن میباشد. تحلیل مککینزی تخمین میزند که تا سال 2030 در سناریوی پایه، کل تقاضای محاسباتی هوش مصنوعی مولد میتواند به 25×1030 فلاپس برسد که تقریباً 70 درصد آن مربوط به برنامههای B2C و 30 درصد آن برنامههای B2B است.
شکل 2 : کل تقاضای سالیانه برای برنامههای B2C و B2B
سناریوهای تقاضای پردازش در بازار B2C
تقاضای محاسباتی B2C توسط تعداد مصرفکنندگانی که با هوش مصنوعی مولد درگیر هستند، سطح تعامل آنها و پیامدهای محاسباتی آن بدست میآید. به طور خاص، حجمهای کاری استنتاج B2C با تعداد تعاملات هوش مصنوعی مولد به ازای هر کاربر، تعداد کاربران هوش مصنوعی مولد و FLOP در هر تعامل اولیه و پیشرفته کاربر تعیین میشود. حجم کار آموزشی بر اساس تعداد دورههای آموزشی در سال، تعداد ارائه دهندگان مدل هوش مصنوعی مولد، و FLOP در هر آموزش اجرا شده توسط مدلهای مختلف هوش مصنوعی مولد تعیین میشود. برای همه سناریوها، ضروری است که شرکتها بتوانند یک مدل تجاری پایدار ایجاد کنند.
پذیرش پایه: تا سال 2030، میانگین انتظاری تعداد تعاملات روزانه به ازای هر کاربر گوشی هوشمند (که یک تعامل با یک سری دستورات است) برای برنامههای اصلی مصرف کننده، مانند ایجاد پیشنویس ایمیل، 10 خواهد بود. مفروضات اساسی که سناریوی پایه B2C را فعال میکند عبارتند از: پیشرفتهای فنآوری پایدار، پیشرفتهای نظارتی مطلوب، و پذیرش مداوم کاربران در حال رشد است.
پذیرش محافظهکارانه: این سناریو شامل پذیرش محتاطانه از سوی مصرفکنندگان است. این احتیاط به دلیل نگرانیهای مداوم مربوط به حریم خصوصی دادهها، پیشرفتهای نظارتی، و پیشرفتهای تدریجی در فناوری است. این نوع پذیرش تقریباً نصف پذیرش پایه است.
پذیرش شتابیافته: این سناریو نشان دهنده درجه بالایی از اعتماد به فناوری و پذیرش گسترده کاربران است. محرکهای این سناریو میتوانند مدلهای تجاری جدید جذاب، پیشرفتهای فنآوری قابل توجه و تجربیات کاربری خوب باشند.
سناریوهای تقاضای B2B
پذیرش موارد کاربردی از هوش مصنوعی مولد در بخش B2B به طور قابل توجهی تحت تأثیر هزینه تأمین تراشههای نیمههادی است. شرکتها باید بتوانند سرمایهگذاری خود را در زیرساختهای محاسباتی افزایش دهند. همچنین باید اطمینان حاصل کنند که هزینه خدمات کمتر از تمایل شرکت به پرداخت است.
در زمینه موارد کاربرد B2B، تجزیه و تحلیل مکنزی نشان میدهد که از شش کهنالگوی مورد استفاده، تنها پنج مورد برای پذیرش گسترده از نظر اقتصادی مقرون به صرفه هستند(شکل زیر). انتظار نمیرود کهن الگوی ششم مورد استفاده قار گیرد. چرا که ارزش محدودی که ایجاد میشود در مقایسه با هزینههای آن توجیه کافی ارائه نمیکند.
شکل 3 : تخمین میزنیم تنها 5 مورد از 6 موارد کاربرد کهنالگوها، به طور گسترده تا سال 2023 مورد استفاده قرار میگیرند.
پذیرش پایه
سناریوی پایه نرخ پذیرش میانی را بین 8 تا 28 سال فرض میکند که نشان میدهد موارد استفاده B2B در 18 سال به 90 درصد پذیرش میرسند. علاوه بر این، تحلیل مککینزی تخمین میزند که کسبوکارها از سال 2024 به ارزش خود پی خواهند برد. تضمین سرمایهگذاری برای ظرفیت تولید، تولید ویفر، تأمین ظرفیت محاسباتی و آموزش افراد برای استفاده از خدمات جدید، همگی زمانبر است. به این ترتیب، پیش از دستیابی به ارزش، زمان تولید ویفرها را تقریباً دو سال فرض میکنیم. انتظار میرود این تحقق تجاری تقریباً 25 درصد از ارزش جذب شده را تا سال 2030 برای موارد استفاده اقتصادی مقرون به صرفه تولید کند. در این سناریو، ما فرض میکنیم که ارزش اضافی حاصل از تمام پیشرفتهای کوچک مقیاس در بهرهوری نیروی کار از همان نسبت کلی به عنوان پتانسیل ارزش محاسبهشده از شش کهن الگوی مورد استفاده پیروی میکند.
پذیرش محافظهکارانه
این سناریو نرخ پذیرش حدود 90 درصد را در طی 28 سال فرض میکند که حدود 15 درصد آن تا سال 2030 محقق میشود. این کاهش سرعت را میتوان به ترکیبی از عوامل، از جمله محدودیتهای نظارتی، نگرانیهای مربوط به حریم خصوصی دادهها و چالشهای پردازش دادهها نسبت داد.
پذیرش شتابیافته
این سناریو نرخ پذیرش تقریباً 90 درصد را در حدود 13 سال فرض میکند. این شتاب مشروط به کاتالیزورهایی مانند مدلهای کسبوکار جذاب، پیشرفت سریع فناوری، یا مقررات مطلوب است. به عنوان مثال، ساختارهای سختافزاری مخرب به طور قابل ملاحظهای هزینه سرویس را کاهش میدهد. علاوه بر این، پیشرفتها در فرآیند اعتبارسنجی نرمافزاری ممکن است به طور قابل توجهی کارایی راهحلهای هوش مصنوعی مولد را افزایش دهد. عواملی از این قبیل ممکن است منحنی اقتباس را تسریع کنند و تا سال 2030 باعث افزایش قابل توجه اجرای هوش مصنوعی در صنعت نیمههادی شوند.
پذیرش کاربردی هوش مصنوعی مولد در بخش B2B به طور قابل توجهی تحت تأثیر کفایت و هزینه تامین تراشههای نیمههادی است.
زیرساختهای مرکز داده و روندهای سختافزاری هوش مصنوعی مولد
بخشی از تأثیر هوش مصنوعی مولد در نیمههادی در زیرساختهای مرکز داده میباشد. همزمان با در نظر گرفتن سناریوهایی برای تقاضای محاسباتی هوش مصنوعی مولد، رهبران نیمهرسانا نیاز دارند تا با تغییرات در سختافزار و زیرساختهای زیربنایی، نظیر زیرساختهای مرکز داده، سرورها و تراشههای نیمهرسانا سازگار شوند.
زیرساخت مرکز داده
برنامههای کاربردی هوش مصنوعی مولد معمولاً روی سرورهای اختصاصی و در مراکز داده اجرا میشوند. در نگاه اول، مراکز داده هوش مصنوعی ممکن است شبیه به مراکز داده سنتی به نظر برسند، اما تفاوتهای قابل توجهی وجود دارد.
بزرگترین تفاوت بین مراکز داده سنتی و مراکز داده هوش مصنوعی، چگالی رک (Rack densities) یعنی توان مصرفی یک ردیف از سرورها است. مراکز داده عمومی دارای چگالی توان رک 5 تا 15 کیلووات هستند. این در حالی است که بار پردازشی آموزش (training) در هوش مصنوعی مولد میتواند 100 کیلو وات یا در برخی موارد امروزه تا 150 کیلووات مصرف کنند. انتظار میرود این عدد افزایشیافته و تا چند سال آینده به 250 تا 300 کیلووات برسد. علاوه بر این، با افزایش چگالی توان رک، خنککننده رک از خنک کننده مبتنی بر هوا به خنک کننده مایع تغییر میکند. خنک کننده مایع مستقیم تراشه (Direct-to-chip liquid cooling) و خنککننده کاملاً شناور (full-immersion cooling) نیز به طراحیهای جدید سرور و رک نیاز دارد تا موارد اضافی را در خود جای دهد.
سرورها
در پاسخ به تقاضای فزایندهای که برای توان محاسباتی در هوش مصنوعی وجود دارد، سرورها از واحدهای پردازش گرافیکی با کارایی بالا (GPU) یا تراشههای تخصصی هوش مصنوعی، مانند تراشههای ASIC استفاده میکنند. دلیل این استفاده این است که بهطور کارآمد بارهای کاری هوش مصنوعی مولد را از طریق پردازش موازی مدیریت کنند.
انتظار میرود که زیرساختهای مورد نیاز هوش مصنوعی در دو شاخه دستهبندی شوند: آموزش (Training) و استنتاج (Inference). دلیل این امر این است که تقاضای محاسباتی برای استنتاج خاصتر است و به هزینه بسیار کمتری نیاز دارد.
آموزش (Training): انتظار میرود معماری سرور آموزش مشابه معماریهای خوشهای با کارایی بالای امروزی باشد که در آن همه سرورهای یک مرکز داده به اتصال با پهنای باند بالا و تأخیر کم متصل هستند. معماری سرورهای AI با عملکرد بالا از دو واحد CPU و هشت GPU برای محاسبه استفاده میکند. انتظار میرود تا سال 2030 بیشتر بارهای آموزشی با استفاده از این نوع ترکیب (CPU+GPU) اجرا شوند.
استنتاج (Inference): در حال حاضر پردازش مربوط به استنتاج بر روی زیرساختهایی اجرا میشود که مشابه زیرساختهای آموزش است. با افزایش پذیرش هوش مصنوعی مولد توسط مصرفکنندهها و کسبوکارها، انتظار میرود حجم کار بیشتر به سمت استنتاج برود. این منجر به گسترش سختافزارهای تخصصی میشود. سختافزارهایی که هزینه کمتر، بهرهوری انرژی بالاتر و عملکرد سریعتر یا بهتری برای کارهای بسیار تخصصی دارند.
انتظار میرود در سال 2030، شتابدهندههای هوش مصنوعی با تراشههای ASIC عمده بار پردازشی را بر عهده بگیرند؛ چرا که این تراشهها در وظایف خاص هوش مصنوعی بهینه عمل میکنند.
تقاضای ویفر هوش مصنوعی مولد در صنعت نیمههادی
تجزیه و تحلیل مکنزی تقاضای ویفر با کارایی بالا را بر اساس تقاضای محاسباتی و نیاز سختافزاری آن تخمین میزند:
- تراشههای منطقی (CPU،GPU و شتابدهندههای هوش مصنوعی)
- تراشههای حافظه (حافظه با پهنای باند بالا [HBM] و حافظه با نرخ دو برابری داده [DDR])
- تراشههای ذخیرهسازی داده (تراشههای NAND[not-and])
- تراشههای نیمهرسانای برق (Power semiconductor chips)
- فرستندههای نوری (optical transceivers)
- و سایر اجزا
در بخشهای بعدی، تراشههای منطق، HBM، DDR و NAND را با دقت بیشتری بررسی خواهیم کرد. فراتر از منطق و حافظه، پیشبینی میکنیم که افزایش تقاضا برای انواع دیگر دستگاهها وجود داشته باشد. به عنوان مثال، نیمههادیهای برق تقاضای بیشتری خواهند داشت زیرا سرورهای هوش مصنوعی مولد مقادیر بیشتری انرژی مصرف میکنند. ملاحظات دیگر اجزای نوری است، مانند مواردی که در ارتباطات استفاده میشود، که انتظار میرود در طول زمان به فناوریهای نوری تبدیل شوند. ما قبلاً این انتقال را برای شبکههای راه دور به منظور کاهش مصرف انرژی و در عین حال افزایش نرخ انتقال داده دیدهایم. برای تحریک نوآوری در تقریباً همه حوزههای صنعت، لازم است این الزامات جدید با سطح بالای سرمایهگذاری پیشبینیشده ترکیب شود.
انتظار میرود در سال 2030 شتابدهندههای هوش مصنوعی با تراشههای ASIC که عمده بار کاری را بر عهده میگیرند و در وظایف خاص هوش مصنوعی بهینه عمل میکنند بیشتر بکار رود.
تراشههای منطقی
تقاضای تراشه منطقی به نوع تراشه محاسباتی هوش مصنوعی و نوع سرور برای بارهای کاری آموزش و استنتاج بستگی دارد. همانطور که قبلاً بحث شد، تا سال 2030، پیشبینی میکنیم که اکثر تقاضای محاسباتی هوش مصنوعی مولد در FLOP از بارهای کاری استنتاج حاصل شود. در حال حاضر، سه نوع سرور هوش مصنوعی وجود دارد که میتوانند استنتاج و بارهای کاری آموزشی را مدیریت کنند:
- CPU+GPU
- شتابهوش مصنوعی+CPU
- و فیوژن CPU+GPU
امروزه CPU+GPU متداولتر بوده و برای استنتاج و بارهای کاری آموزشی استفاده میشود. انتظار میرود در سال 2030 شتابدهندههای هوش مصنوعی با تراشههای ASIC که عمده بار کاری را بر عهده میگیرند و در وظایف خاص هوش مصنوعی بهینه عمل میکنند بیشتر بکار گرفته شود. از سوی دیگر، GPU و سرورهای فیوژن به دلیل تطبیق پذیری آنها در انجام انواع مختلف وظایف، برای مدیریت بارهای آموزشی ایده آل هستند (شکل زیر).
شکل 4: پیشبینی میشود معماری سرور به سمت پردازشگرهایی با شتابدهنده هوش مصنوعی سوق پیدا کنند.
پیشبینی تقاضای ویفر
در سال 2030، مک کینزی تخمین میزند که تقاضای ویفر منطقی از برنامههای هوش مصنوعی غیر مولد تقریباً 15 میلیون ویفر خواهد بود. حدود هفت میلیون از این ویفرها با استفاده از گرههای فناوری بیش از سه نانومتر و تقریباً هشت میلیون ویفر با استفاده از گرههای مساوی یا کمتر از سه نانومتر تولید خواهند شد. تقاضای هوش مصنوعی مولد به 1.2 تا 3.6 میلیون ویفر اضافی نیاز دارد که با استفاده از گرههای فناوری برابر یا کمتر از سه نانومتر تولید میشود.
بر اساس برنامهریزی منطق فعلی،پیشبینی میشود که در سال 2030 میتوان 15 میلیون ویفر با استفاده از گرههای فناوری معادل یا کمتر از هفت نانومتر تولید کرد. بنابراین، تقاضای هوش مصنوعی مولد با استفاده از گرههای فناوری برابر یا کمتر از سه نانومتر، شکاف عرضه بالقوهای بین یک میلیون تا حدود چهار میلیون ویفر ایجاد میکند. برای پر کردن این شکاف، تا سال 2030 به 3 تا 9 ابزار منطقی جدید نیاز است (شکل زیر).
شکل 5 : تا سال 2030، هوش مصنوعی مولد تقاضای ویفر را به طور قابل ملاحظهای افزایش میدهد.
DDR و HBM
سرورهای هوش مصنوعی مولد از دو نوع DRAM استفاده میکنند:
- HBM، متصل به GPU یا شتاب دهندههای هوش مصنوعی
- و DDR RAM متصل به CPU.
HBM پهنای باند بالاتری دارد اما برای همان مقدار داده به سیلیکون بیشتری نیاز دارد.
با بزرگتر شدن مدلهای انتقال، سرورهای هوش مصنوعی مولد ظرفیت حافظه را افزایش میدهند. با این حال، رشد ظرفیت حافظه ساده نیست و چالشهایی را برای طراحی سخت افزار و نرم افزار ایجاد میکند. اولاً، صنعت با مشکل دیوار حافظه (Memory wall) مواجه است که در آن ظرفیت حافظه و پهنای باند گلوگاه عملکرد محاسباتی در سطح سیستم است. اینکه صنعت چگونه با مشکل دیوار حافظه مقابله خواهد کرد، همچنان یک سوال باز است. حافظه SRAM در تراشههای مختلف برای افزایش حافظه محاسباتی آزمایش میشود، اما هزینه بالای آن پذیرش گسترده را محدود میکند. به عنوان مثال، الگوریتمهای آینده ممکن است به حافظه کمتری در هر استنتاج نیاز داشته باشند و رشد تقاضای کل حافظه را کندتر کند.
ثانیاً، شتابدهندههای هوش مصنوعی در مقایسه با معماری CPU+GPU از نظر حافظه سبکتر هستند و ممکن است تا سال 2030 که حجم کار استنتاج رشد کند، محبوبتر شوند. این میتواند به معنای رشد بالقوه کندتر در تقاضای حافظه باشد.
با بزرگتر شدن مدلهای انتقال، سرورهای هوش مصنوعی مولد ظرفیت حافظه را افزایش میدهند. با این حال، رشد ظرفیت حافظه ساده نیست و چالشهایی را برای طراحی سخت افزار و نرم افزار ایجاد میکند.
سناریوهای تقاضای DRAM
با توجه به این عدم قطعیتها، ما دو سناریو تقاضای DRAM را علاوه بر سناریوهای پذیرش پایه، محافظه کارانه و تسریع شده در نظر میگیریم: سناریوی “DRAM light”، که در آن شتاب دهندههای هوش مصنوعی در مقایسه با سیستمهای مبتنی بر GPU در حافظه کم باقی میمانند، و یک سناریو “DRAM base” که در آن سیستمهای مبتنی بر شتابدهنده هوش مصنوعی از نظر تقاضای DRAM به سیستمهای مبتنی بر GPU میرسند.
تا سال 2030، ما انتظار داریم که تقاضای DRAM از برنامههای هوش مصنوعی مولد پنج تا 13 میلیون ویفر در سناریوی DRAM light باشد که به معنی چهار تا دوازده فاب اختصاصی است. در سناریوی DRAM base، تقاضای DRAM بین 7 تا 21 میلیون ویفر خواهد بود که به معنی 6 تا 18 فاب است.
حافظه NAND
حافظه NAND برای ذخیره سازی دادهها استفاده میشود. به عنوان مثال، برای سیستم عامل، دادههای کاربر و ورودی و خروجی. در سال 2030، تقاضای NAND احتمالاً توسط سرورهای داده اختصاصی برای دادههای ویدئویی و چند مدلی هدایت میشود. این دادهها به ذخیرهسازی قابل توجهی نیاز دارند (به عنوان مثال، برای آموزش توالیهای ویدئویی با وضوح بالا و بازیابی دادهها در طول استنتاج). انتظار میرود کل تقاضای NAND دو تا هشت میلیون ویفر باشد که مربوط به یک تا پنج فاب است. با توجه به اینکه عملکرد مورد نیاز برای ذخیره سازی NAND هوش مصنوعی مولد مانند سرورهای فعلی خواهد بود، برآورده کردن این تقاضا در مقایسه با منطق و DRAM چالش برانگیزتر خواهد بود.
سایر اجزا
افزایش تقاضای محاسباتی باعث ایجاد تقاضای اضافی برای بسیاری از انواع تراشههای دیگر میشود. در این زمینه دو مورد قابل توجه است:
- شبکه و ارتباط پرسرعت: هوش مصنوعی مولد به ارتباطات با پهنای باند بالا و تأخیر کم بین سرورها و بین اجزای مختلف سرورها نیاز دارد. برای ایجاد تمام اتصالات، تعداد بیشتری از اینترفیسها و سوئیچهای شبکه مورد نیاز است. امروزه، این پیوندهای داخلی عمدتاً مبتنی بر مس هستند، اما انتظار میرود که اتصال نوری با افزایش پهنای باند و تأخیر کم، سهم بیشتری به دست آورد.
- نیمههادیهای برق: سرورهای هوش مصنوعی به مقدار زیادی برق نیاز دارند و ممکن است در سال 2030 بیش از 10 درصد برق جهانی را مصرف کنند. رفع این چالش به نیمههادیهای برق زیادی در سرور و دستگاههای واقعی نیاز دارد.
جمعبندی هوش مصنوعی مولد در نیمههادی
در جمعبندی اثرات هوش مصنوعی مولد بر صنعت نیمههادی میتوان گفت، افزایش تقاضا برای برنامههای کاربردی هوش مصنوعی مولد جدید، نیاز به قدرت محاسباتی را افزایش میدهد. این نیاز هم نوآوری نرمافزاری و هم سرمایهگذاری قابل توجهی در زیرساختهای مرکز داده و کارخانههای نیمهرسانا ایجاد میکند. با این حال، سؤال مهم برای رهبران صنعت این است که آیا بخش نیمههادی قادر به پاسخگویی به تقاضا خواهد بود یا خیر. برای رویارویی با این چالش، رهبران نیمههادی باید در نظر داشته باشند که به کدام سناریو اعتقاد دارند. سرمایه گذاری در ظرفیت تولید نیمههادیها و سرورها پرهزینه و زمانبر است. بنابراین ارزیابی دقیق چشمانداز برای بررسی پیچیدگیهای انقلاب هوش مصنوعی مولد و ایجاد دیدگاهی از تأثیر آن بر صنعت نیمههادی ضروری است.
منبع: Generative AI: The next S-curve for the semiconductor industry