اپل اعلام کرد مدل های هوش مصنوعی این شرکت که زیربنای سیستم Apple Intelligence هستند، روی چیپ هایی طراحی شده اند که گوگل آن ها را در فضای ابری آموزش داده است.
این خبر در مقاله ای فنی منتشر شد. چیپ های پردازش تنسور گوگل (TPU) ابتدا برای بارهای کاری داخلی ایجاد شده بودند اما اکنون در برخی کاربردهای وسیع تر نیز استفاده می شوند. تصمیم اپل برای استفاده از تراشه های تنسور گوگل نشان می دهد برخی شرکت های بزرگ فناوری به دنبال جایگزین هایی برای واحدهای پردازش گرافیکی انویدیا (GPU) با هدف آموزش هوش مصنوعی هستند.
اپل در مقاله ۴۷ صفحه ای خود نامی از گوگل یا انویدیا نبرده اما ذکر کرده Apple Foundation Model (AFM) و سرور AFM روی «خوشه های TPU ابری» آموزش دیده اند؛ یعنی اپل سرورهایی را از ارائه دهنده ای ابری اجاره کرده است تا محاسبات موردنیاز برای آموزش مدل های هوش مصنوعی خود را انجام دهد.
واحدهای پردازش گرافیکی انویدیا (GPU) که به صورت عمده در بازار آموزش هوش مصنوعی پیشرفته استفاده می شوند، در دو سال گذشته به حدی تقاضا داشته اند که تهیه آن ها در مقادیر موردنیاز بسیار دشوار شده است. شرکت هایی مانند OpenAI، مایکروسافت و Anthropic همگی از GPUهای انویدیا برای مدل هایشان استفاده می کنند، درحالی که سایر شرکت های فناوری مانند گوگل، متا، اوراکل و تسلا نیز آن ها را برای ساخت سیستم ها و پیشنهادات هوش مصنوعی خود خریداری می کنند.
مارک زاکربرگ، مدیرعامل متا، و ساندار پیچای، مدیرعامل آلفابت، هفته گذشته اعلام کردند شرکت های آن ها و دیگر شرکت های حاضر در صنعت ممکن است بیش از حد در زیرساخت های هوش مصنوعی سرمایه گذاری کنند، اما ریسک کسب وکار ناشی از انجام ندادن این سرمایه گذاری ها بسیار بالاست. زاکربرگ در پادکستی با امیلی چانگ از بلومبرگ گفت: «اشکال عقب ماندن این است که شما از رقابت برای مهم ترین فناوری ها در ۱۰ تا ۱۵ سال آینده خارج می شوید.»
این مقاله همچنین اشاره کرده است که سیستم Apple Intelligence شامل چندین ویژگی جدید است؛ مانند ظاهر جدید سیری، پردازش بهتر زبان طبیعی و خلاصه سازی به کمک هوش مصنوعی در زمینه های متنی. اپل قصد دارد در سال آینده عملکردهایی مبتنی بر هوش مصنوعی مولد را معرفی کند، ازجمله تولید تصویر، تولید ایموجی و سیری پیشرفته تر که می تواند به اطلاعات شخصی کاربر دسترسی پیدا کند و در داخل اپلیکیشن ها اقدامات انجام دهد.