مدیرعامل Nvidia می‌گوید چیپ‌های هوش مصنوعی او سریع‌تر از قانون مور در حال پیشرفت هستند.

08 01 2025
کد خبر : 18694233
تعداد بازدید : 19

مدیرعامل Nvidia، جنسن هوانگ، می‌گوید که عملکرد چیپ‌های هوش مصنوعی شرکتش سریع‌تر از نرخ‌های تاریخی تعیین‌شده توسط قانون مور پیشرفت می‌کند، قانونی که پیشرفت‌های محاسباتی را برای دهه‌ها به جلو راند.

هوانگ در مصاحبه‌ای با TechCrunch در روز سه‌شنبه، صبح بعد از ارائه سخنرانی اصلی به جمعیتی ۱۰,۰۰۰ نفری در CES لاس وگاس، گفت: “سیستم‌های ما به‌طرز قابل توجهی سریع‌تر از قانون مور در حال پیشرفت هستند.”

قانون مور که توسط یکی از بنیان‌گذاران اینتل، گوردون مور، در سال ۱۹۶۵ مطرح شد، پیش‌بینی می‌کرد که تعداد ترانزیستورها بر روی چیپ‌های کامپیوتری تقریباً هر سال دو برابر می‌شود و در واقع عملکرد آن چیپ‌ها نیز دو برابر می‌شود. این پیش‌بینی عمدتاً محقق شد و منجر به پیشرفت‌های سریع در قابلیت‌ها و کاهش هزینه‌ها برای دهه‌ها گردید.

در سال‌های اخیر، قانون مور کند شده است. با این حال، هوانگ ادعا می‌کند که چیپ‌های هوش مصنوعی Nvidia با سرعتی شتاب‌دار در حال حرکت هستند؛ این شرکت می‌گوید که سوپرچیپ جدید مرکز داده آن‌ها بیش از ۳۰ برابر سریع‌تر از نسل قبلی خود برای اجرای بارهای کاری استنتاج هوش مصنوعی عمل می‌کند.

هوانگ گفت: “ما می‌توانیم معماری، چیپ، سیستم، کتابخانه‌ها و الگوریتم‌ها را به‌طور همزمان بسازیم. اگر این کار را انجام پذیرد، می‌توان سریع‌تر از قانون مور حرکت کرد، زیرا امکان نوآوری در تمامی سطوح فراهم می‌شود.”

این ادعای جسورانه از سوی مدیرعامل Nvidia در زمانی مطرح می‌شود که بسیاری در حال طرج این سوال هستند که آیا پیشرفت هوش مصنوعی متوقف شده است یا خیر. آزمایشگاه‌های پیشرو در زمینه هوش مصنوعی — مانند گوگل، OpenAI و Anthropic — از چیپ‌های هوش مصنوعی Nvidia برای آموزش و اجرای مدل‌های هوش مصنوعی خود استفاده می‌کنند و توسعه‌ی این چیپ‌ها احتمالاً به پیشرفت‌های بیشتری در قابلیت‌های مدل‌های هوش مصنوعی منجر خواهد شد.

این اولین بار نیست که هوانگ پیشنهاد می‌کند Nvidia از قانون مور پیشی گرفته است. در یک پادکست در نوامبر، هوانگ پیشنهاد کرد که دنیای هوش مصنوعی در مسیر “قانون مور فوق‌العاده” قرار دارد.

هوانگ ایده کاهش پیشرفت هوش مصنوعی را رد می‌کند. او به جای آن ادعا می‌کند که اکنون سه قانون مقیاس‌گذاری فعال در هوش مصنوعی وجود دارد: پیش‌آموزش، مرحله اولیه آموزش که در آن مدل‌های هوش مصنوعی الگوها را از حجم زیادی از داده‌ها یاد می‌گیرند؛ پس‌آموزش، که پاسخ‌های مدل هوش مصنوعی را با استفاده از روش‌هایی مانند بازخورد انسانی بهبود می‌بخشد؛ و محاسبات زمان آزمون، که در مرحله استنتاج رخ می‌دهد و به مدل هوش مصنوعی زمان بیشتری برای "تفکر" پس از هر سوال می‌دهد.

چیپ‌های Nvidia H100 انتخاب اصلی شرکت‌های فناوری برای آموزش مدل‌های هوش مصنوعی بودند، اما اکنون که شرکت‌های فناوری بیشتر بر روی استنتاج تمرکز می‌کنند، برخی پرسش‌هایی درباره اینکه آیا چیپ‌های گران‌قیمت انویدیا همچنان در صدر خواهند ماند یا خیر، مطرح شده است.

امروزه مدل‌های هوش مصنوعی ای که از محاسبات زمان آزمون استفاده می‌کنند، هزینه بالایی برای اجرا دارند. نگرانی در خصوص مدل o3 OpenAI، که از نسخه مقیاس‌پذیر محاسبات زمان آزمون استفاده می‌کند، این است که ممکن است برای اکثر مردم بسیار گران باشد. به عنوان مثال، OpenAI نزدیک به ۲۰ دلار برای هر کار با استفاده از o3 برای دستیابی به نمرات سطح انسانی در یک آزمون هوش عمومی هزینه کرده است. اشتراک ChatGPT Plus برای یک ماه کامل ۲۰ دلار هزینه دارد.

هوانگ در سخنرانی روز دوشنبه، سوپرچیپ جدید مرکز داده انویدیا، GB200 NVL72، را به نمایش گذاشت. این چیپ ۳۰ تا ۴۰ برابر سریع‌تر از بهترین چیپ‌های پرفروش قبلی انویدیا، یعنی H100، برای اجرای بارهای کاری استنتاج هوش مصنوعی عمل می‌کند. هوانگ می‌گوید این جهش در عملکرد به این معنی است که مدل‌های استدلال هوش مصنوعی مانند o3 OpenAI، که در مرحله استنتاج مقدار قابل توجهی محاسباتی نیاز دارد، با گذشت زمان ارزان‌تر خواهند شد.

هوانگ می‌گوید که به طور کلی بر روی تولید چیپ‌های با عملکرد بالاتر تمرکز دارد و این چیپ‌های با عملکرد بالاتر در درازمدت قیمت‌های کمتری ایجاد می‌کنند.

هوانگ به TechCrunch گفت: “راه‌حل مستقیم و فوری برای محاسبات زمان آزمون، هم از نظر عملکرد و هم از نظر قابلیت پرداخت هزینه، افزایش توان محاسباتی ما است.” او اشاره کرد که در بلندمدت، مدل‌های استدلال هوش مصنوعی می‌توانند برای ایجاد داده‌های بهتر برای پیش‌آموزش و پس‌آموزش مدل‌های هوش مصنوعی استفاده شوند.

ما قطعاً در سال گذشته شاهد کاهش قیمت مدل‌های هوش مصنوعی بوده‌ایم که بخشی از آن به پیشرفت‌های محاسباتی از سوی شرکت‌های سخت‌افزاری مانند Nvidia برمی‌گردد. هوانگ می‌گوید این یک روند است که انتظار دارد با مدل‌های استدلال هوش مصنوعی ادامه یابد، حتی اگر نسخه‌های اولیه‌ای که از OpenAI دیده‌ایم نسبتاً گران بوده‌اند.

به طور کلی، هوانگ ادعا کرد که چیپ‌های هوش مصنوعی او امروز ۱۰۰۰ برابر بهتر از آنچه ۱۰ سال پیش تولید کرده‌اند، هستند. این سرعت بسیار سریع‌تری نسبت به استاندارد تعیین‌شده توسط قانون مور است، قانونی که هوانگ می‌گوید هیچ نشانه‌ای از توقف آن در آینده نزدیک نمی‌بیند.

 


دسته بندی | برچسب :
ICT-NEWS

خبر های مهم

ناشر الأصول

23 05 2019

اتصال دانشکده تربیت بدنی و دیتاسنتر مرکز فاوا دانشگاه، توسط فیبر نوری

  در راستای توسعه زیر ساخت های شبکه دانشگاه، کاهش هزینه ها، افزایش سرعت و دسترسی مطلوب تر و امن به اینترنت،‌ با همکاری مخابرات استان گیلان، امکان اتصال دانشکده تربیت بدنی و دیتاسنتر مرکز فاوا دانشگاه، توسط فیبر نوری فراهم شد. شایان ذکر است عملیات نصب و راه اندازی پروژه فیبر نوری برای دانشکده منایع طبیعی دانشگاه در دست اجرا می باشد. همچنین پیش از این دانشکده فنی و مهندسی شرق گیلان  توسط فیبر نوری به دیتاسنتر مرکز فاوا  متصل شد. فیبر‌های نوری، از نور به جای جریان الکتریسیته برای انتقال داده‌ها استفاده می‌کنند. استفاده از نور به عنوان نمایش دهنده داده‌ها سبب می‌شود تا بتوان از سرعت بسیار بالای آن برای ارسال داده‌ها با سرعت هایی در نرخ گیگابیت استفاده کرد. فیبر‌های نوری بر خلاف سیم‌های مسی محدودیتی در پهنای باند ندارند چرا که از نور استفاده می‌کنند. همچنین برخلاف سیم‌های مسی، فیبر نوری در برابر پوسیدگی مقاوم بوده و توانایی انتقال داده را در فاصله ۵۰ کیلومتر و حتی بیشتر بدون افت کیفیت دارد. به دلیل این عدم محدودیت در فاصله ارتباطی، استفاده از تجهیزات واسط کمتر بوده و در نتیجه در هزینه اجرایی و نگهداری تجهیزات مخابراتی صرفه جویی قابل توجهی می‌گردد. مرکز فاوا دانشگاه https://itc.guilan.ac.ir

12 03 2019

پیوستن دانشگاه گیلان به شبکه علمی کشور با حضور وزیر علوم تحقیقات و فناوری

با حضور وزیر علوم تحقیقات و فناوری، استاندار گیلان و مدیران استانی ، دانشگاه گیلان به شبکه علمی کشور متصل شد. شبکه علمی یک قرار داد سه جانبه میان وزارتخانه‌های علوم، تحقیقات و فناوری، مرکزپژوهش‌های صنعتی و ارتباطات و فناوری اطلاعات است. شبکه علمی کشور شبکه ای مستقل و مبتنی بر فیبر تاریک با هدف اتصال کلیه دانشگاه ها و با امکان اتصال به سایر شبکه های معتبر علمی از جمله شبکه علمی اروپا است. شبکه علمی، شاهراه ارتباطی و انتقال دهنده دانش مابین مشترکین خاص خود است که از یک سوی نیازمند خدمات زیرساختی خاص مانند سرویس های پرسرعت و بدون تاخیر و امکانات ابری پردازشی بوده و از سوی دیگر تولید کننده، توسعه دهنده و ارائه کننده خدمات و اطلاعاتی است که در بستر اینترنت دستیابی به آنها یا ممکن نیست و یا هزینه بالایی دارد. شبکه علمی صرفا تامین کننده اینترنت نیست بلکه بستر ارائه خدمات متنوع، محیط هم افزایی علمی، زیرساخت پیاده سازی نقشه جامع علمی کشور است

23 10 2018

پیشخوان خدمت الکترونیکی مرکز فاوا راه اندازی شد.

به اطلاع کاربران محترم می رساند مرکز فاوا دانشگاه با هدف افزایش رضایتمندی کاربران گرامی و ارتقای کیفی خدمات موردنظر، پیشخوان خدمت الکترونیکی  را در سامانه یکپارچه ERP  طراحی و آماده بهره برداری نموده است. از مزایای این امکان می توان به افزایش تضمین دسترسی به بخش پشتیبانی فاوا به واسطه کاهش وابستگی به تماس تلفنی، امکان ثبت درخواست ها در هر ساعتی از شبانه روز و امکان پیگیری درخواست ها از طریق بستر وب اشاره کرد. در فاز نخست، امکان فوق در کارتابل کلیه کارکنان محترم و اعضای محترم هیات علمی به همراه راهنمای کاربری (تصویر زیر)،  فعال گردیده است . کاربران گرامی می توانند از این پس کلیه پیشنهادات، درخواست ها و مشکلات احتمالی کاربری خود در زمینه شبکه و اینترنت، سامانه ERP و همچنین سایر سامانه های کاربردی (‌مانند ایمیل دانشگاهی، صفحه شخصی استادان)‌ را از طریق این سامانه ارسال و پیگیری نمایند.