Apple trenowało AI na Tensor Processing Units (TPU) od Google
Apple wykorzystało Tensor Processing Units (TPU) od Google zamiast popularnych GPU firmy Nvidia do stworzenia dwóch kluczowych komponentów Apple Intelligence.
W nowym artykule badawczym Apple ujawnia, że użyło 2,048 czipów TPUv5p i 8,192 czipów TPUv4 od Google do budowy modeli AI. Decyzja ta jest znacząca, biorąc pod uwagę dominację Nvidia w rynku procesorów AI.
Google oferuje dostęp do swoich TPU poprzez usługi chmurowe, co pozwala na rozwój oprogramowania w ekosystemie Google. Inżynierowie Apple podkreślają, że TPU Google umożliwiły efektywne trenowanie zaawansowanych modeli AI dzięki organizacji w duże klastry. Apple planuje zainwestować ponad 5 miliardów dolarów w ulepszenia serwerów AI w ciągu najbliższych dwóch lat.
Artykuł omawia także kwestie etyczne, podkreślając, że Apple nie używało prywatnych danych użytkowników do treningu modeli AI, polegając na publicznie dostępnych, licencjonowanych i otwartoźródłowych zestawach danych, dbając o ochronę prywatności użytkowników.