بررسی بهروزرسانی هوش مصنوعی گوگل و متا
در این مقاله به بهروزرسانی هوش مصنوعی گوگل و متا میپردازیم. اخباری درباره بهروزرسانیهای Gemini، نسخه 3.2 Llama و طراح تراشه جدید گوگل با قدرت هوش مصنوعی منتشر شده است. این هفته دنیای هوش مصنوعی به شدت پرمشغله بوده است، و این موضوع به لطف OpenAI بوده که شامل یک پست وبلاگی بحثبرانگیز از مدیرعامل سم آلتمن، انتشار گسترده حالت صوتی پیشرفته، شایعاتی درباره مرکز داده 5GW، تغییرات عمده در نیروی انسانی و برنامههای ساختاری دراماتیک است.
اما بقیه دنیای هوش مصنوعی به این ریتم واحد نمیرقصند و همچنان به راه خود ادامه میدهند و مدلهای هوش مصنوعی جدید و تحقیقات خود را با سرعتی سرسامآور منتشر میکنند. در اینجا خلاصهای از برخی دیگر از اخبار مهم هوش مصنوعی در هفته گذشته آمده است.
بهروزرسانیهای Google Gemini
گوگل بهروزرسانیهایی برای مجموعه مدلهای Gemini خود اعلام کرد که شامل انتشار دو مدل جدید آماده تولید است که بر اساس نسخههای قبلی توسعه یافتهاند: Gemini-1.5-Pro-002 و Gemini-1.5-Flash-002. این شرکت بهبودهایی در کیفیت کلی مدلها گزارش داده و پیشرفتهای قابل توجهی در ریاضیات، پردازش متون طولانی و وظایف مرتبط با بینایی حاصل شده است.
گوگل ادعا میکند که عملکرد این مدلها در بنچمارک MMLU-Pro حدود 7 درصد افزایش داشته و در وظایف مرتبط با ریاضیات، 20 درصد بهبود یافته است. همراه با بهروزرسانی مدلها، گوگل کاهش قیمت قابل توجهی برای Gemini 1.5 Pro اعلام کرد. هزینه توکنهای ورودی تا 64 درصد و هزینه توکنهای خروجی تا 52 درصد برای پرامپتهای کمتر از 128,000 توکن کاهش یافته است.
همانطور که محقق هوش مصنوعی سایمون ویلیسون در وبلاگ خود اشاره کرده است برای مقایسه، هزینه GPT-4o در حال حاضر 5 دلار به ازای هر یک میلیون توکن ورودی و 15 دلار به ازای هر یک میلیون توکن خروجی است و هزینه Claude 3.5 Sonnet نیز 3 دلار برای ورودی و 15 دلار برای خروجی است. Gemini 1.5 Pro قبلاً ارزانترین مدلهای مرزی بود و اکنون حتی ارزانتر شده است.
گوگل همچنین محدودیتهای نرخ درخواستها را افزایش داده است، بهطوری که Gemini 1.5 Flash اکنون از 2,000 درخواست در دقیقه پشتیبانی میکند و Gemini 1.5 Pro توانایی مدیریت 1,000 درخواست در دقیقه را دارد. گوگل گزارش میدهد که جدیدترین مدلها دو برابر سرعت خروجی و سه برابر کاهش تاخیر نسبت به نسخههای قبلی دارند. این تغییرات میتوانند توسعهدهندگان را قادر سازند که به روشی سادهتر و کمهزینهتر از گذشته، برنامههایی با استفاده از Gemini بسازند.
متا Llama 3.2 را عرضه میکند
متا از انتشار Llama 3.2 خبر داد که یک بهروزرسانی مهم در مجموعه مدلهای هوش مصنوعی با وزنهای باز (open-weights) است. این مجموعه در گذشته بهطور گسترده مورد پوشش قرار گرفته است. در این نسخه جدید، مدلهای بزرگ زبان (LLM) با قابلیتهای بینایی در اندازههای 11 میلیارد و 90 میلیارد پارامتر معرفی شدهاند، همچنین مدلهای سبکتر و متنی با 1 میلیارد و 3 میلیارد پارامتر که برای دستگاههای موبایل و (edge) طراحی شدهاند.
متا ادعا میکند که مدلهای بینایی این نسخه در زمینه شناسایی تصویر و وظایف مرتبط با درک بصری با مدلهای پیشرو و بسته رقابت میکنند، در حالی که مدلهای کوچکتر در وظایف متنی از رقبای مشابه در همان اندازه بهتر عمل میکنند.
سایمون ویلیسون چندین آزمایش با برخی از مدلهای کوچکتر Llama 3.2 انجام داد و نتایج چشمگیری برای مدلهایی با این اندازه گزارش کرد. همچنین ایتن مولیک، محقق هوش مصنوعی، نمایش اجرای Llama 3.2 بر روی آیفون خود را با استفاده از اپلیکیشنی به نام PocketPal به اشتراک گذاشت.
متا همچنین اولین توزیعهای رسمی با نام Llama Stack را معرفی کرد که با هدف سادهسازی توسعه و استقرار مدلها در محیطهای مختلف طراحی شدهاند. همانند نسخههای قبلی، متا مدلها را برای دانلود رایگان در دسترس قرار داده است، البته با محدودیتهای لایسنس. مدلهای جدید از context window تا 128,000 توکن پشتیبانی میکنند.
هوش مصنوعی AlphaChip گوگل طراحی تراشه را سرعت میبخشد
Google DeepMind از دستاورد قابل توجهی در طراحی الکترونیکی تراشه با کمک هوش مصنوعی به نام AlphaChip خبر داد. این پروژه در سال 2020 به عنوان یک طرح تحقیقاتی آغاز شد و اکنون به یک روش یادگیری تقویتی برای طراحی چیدمان تراشه تبدیل شده است. گوگل اعلام کرده که از AlphaChip برای ایجاد «چیدمانهای تراشه فوقانسانی» در سه نسل اخیر واحدهای پردازش تنسور (TPU) خود استفاده کرده است.
این تراشهها که شبیه به پردازندههای گرافیکی (GPU) هستند، برای تسریع عملیات هوش مصنوعی طراحی شدهاند. گوگل مدعی است که AlphaChip میتواند در چند ساعت چیدمانهای باکیفیت تراشه را ایجاد کند، در حالی که این فرآیند توسط انسانها هفتهها یا ماهها طول میکشد. طبق گزارشها، شرکت Nvidia نیز از AI برای طراحی تراشههای خود استفاده میکند.
نکته جالب توجه این است که گوگل یک نقطه از پیش آموزشدیده AlphaChip را در GitHub منتشر کرده و وزنهای مدل را با عموم به اشتراک گذاشته است. این شرکت گزارش داده که تأثیر AlphaChip فراتر از گوگل رفته و شرکتهای طراحی تراشه مانند MediaTek از این فناوری برای تراشههای خود استفاده کردهاند و آن را توسعه دادهاند.
به گفته گوگل، AlphaChip یک خط جدید از تحقیقات در حوزه AI برای طراحی تراشهها را آغاز کرده است که میتواند هر مرحله از چرخه طراحی تراشه، از معماری کامپیوتر تا ساخت را بهینه کند. اما با توجه به اینکه صنعت AI هیچ نشانهای از کند شدن ندارد، باید دید به زودی چه اتفاقاتی رخ میدهد.
کلام آخر
بهروزرسانیها و نوآوریهای اخیر در حوزه هوش مصنوعی، از جمله مدلهای Gemini گوگل، Llama 3.2 متا و دستاوردهای AlphaChip گوگل، نشاندهنده سرعت بالای پیشرفت و رقابت در این حوزه است. گوگل با بهبود مدلهای خود و کاهش قیمتها، به توسعهدهندگان امکان میدهد تا با هزینه کمتری از قابلیتهای پیشرفته AI استفاده کنند.
در همین حال، متا با معرفی مدلهای جدید Llama 3.2 به دنبال گسترش دسترسی به مدلهای باکیفیت هوش مصنوعی است. همچنین، گوگل با AlphaChip، طراحی تراشه را با کمک هوش مصنوعی به سطوح جدیدی رسانده که میتواند آینده صنعت تراشهسازی را به شکل چشمگیری تغییر دهد.
این نوآوریها نشان میدهد که هوش مصنوعی نه تنها در حال تحول سریع است، بلکه به حوزههای متنوعی از جمله طراحی تراشهها و بهینهسازی فرآیندهای تولید وارد شده است، البته فقط این نیست و حتی در لوازم صوتی مانند اسپیکر و هدفون نیز ما شاهد پیشرفت این تکنولوژی ها هستیم. با توجه به روند شتابان این پیشرفتها، انتظار میرود که در آیندهای نزدیک شاهد تغییرات اساسی و گستردهتری در صنعت فناوری و هوش مصنوعی باشیم.
پاسخگوی سوالات شما هستیم
دیدگاهی وجود ندارد!