Apple twierdzi, że ich model OpenELM nie był trenowany na YouTubie
Na początku tego tygodnia głośno zrobiło się o dochodzeniu, które wykazało, że Apple i inni giganci technologiczni używali napisów YouTube do trenowania swoich modeli sztucznej inteligencji.
Obejmowało to ponad 170 000 filmów twórców takich, jak MKBHD, Mr. Beast oraz innych zasięgowych kanałów. Apple miało wykorzystać ten zestaw danych do trenowania swoich modeli OpenELM o otwartym kodzie źródłowym, które zostały wydane w kwietniu.
Apple publikuje rodzinę wydajnych modeli językowych open source
Apple potwierdziło jednak serwisowi 9to5Mac, że OpenELM nie zasila żadnej z jego funkcji Apple Intelligence ani nie wspiera Machine Learning stosowanego naurządzaniach firmy.
Ta twierdzi, że stworzyła model OpenELM jako sposób na wniesienie wkładu w społeczność badawczą i rozwój dużych modeli językowych typu open source. W przeszłości badacze Apple opisywali OpenELM jako „najnowocześniejszy otwarty model językowy”.
Według Apple, OpenELM został stworzony wyłącznie do celów badawczych, a nie do wykorzystania w celu zasilania jakichkolwiek funkcji Apple Intelligence. Model został opublikowany jako open-source i jest szeroko dostępny, w tym na stronie Apple Machine Learning Research.
Ponieważ OpenELM nie jest używany jako część Apple Intelligence, oznacza to, że zbiór danych o nazwie „Napisy YouTube” nie jest używany do zasilania Apple Intelligence.
Wreszcie, Apple powiedziało 9to5Mac również, że nie planuje tworzyć żadnych nowych wersji modelu OpenELM.
Jak podał Wired na początku tego tygodnia, firmy takie jak Apple, Anthropic i NVIDIA wykorzystały zestaw danych „Napisy YouTube” do trenowania swoich modeli sztucznej inteligencji. Ten zbiór danych jest częścią większej kolekcji o nazwie „The Pile”, stworzonej przez organizację non-profit EleutherAI.
Sprawa ma być dalej badana.