Apple wydało framework dla uczenia maszynowego (MLX)
Apple wydało MLX, czyli „framework do uczenia maszynowego dla procesorów Apple Silicon”.
MLX został zaprojektowany przez badaczy uczenia maszynowego dla badaczy uczenia maszynowego. Ma być przyjazny dla użytkownika, ale nadal wydajny w trenowaniu i wdrażaniu nowych modeli. Projekt jest również koncepcyjnie prosty. Zamierzamy ułatwić badaczom rozszerzanie i ulepszanie MLX w celu szybkiego odkrywania nowych pomysłów.
– czytamy w oficjalnej dokumentacji Apple.
Podstawowe cechy:
- Znane API: MLX posiada API Pythona, które jest ściśle zgodne z NumPy. MLX ma również w pełni funkcjonalne API C++, które ściśle odzwierciedla API Pythona. MLX ma pakiety wyższego poziomu, takie jak mlx.nn i mlx.optimizers z interfejsami API, które są ściśle zgodne z PyTorch, aby uprościć tworzenie bardziej złożonych modeli.
- Komponowalne transformacje funkcji: MLX posiada transformacje funkcji do automatycznego różnicowania, automatycznej wektoryzacji i optymalizacji wykresów obliczeniowych.
- „Leniwe” obliczenia: Obliczenia w MLX są wywoływane na żądanie. Tablice są materializowane tylko wtedy, gdy jest to potrzebne.
- Dynamiczna konstrukcja grafów: Grafy obliczeniowe w MLX są budowane dynamicznie. Zmiana kształtu argumentów funkcji nie powoduje powolnych kompilacji, a debugowanie jest proste i intuicyjne.
- Obsługa wielu urządzeń: Operacje mogą być wykonywane na dowolnym z obsługiwanych urządzeń (obecnie CPU i GPU).
- Zunifikowana pamięć: Zauważalną różnicą w stosunku do MLX i innych frameworków jest zunifikowany model pamięci. Tablice w MLX znajdują się w pamięci współdzielonej. Operacje na tablicach MLX mogą być wykonywane na dowolnym z obsługiwanych typów urządzeń bez przenoszenia danych.
Just in time for the holidays, we are releasing some new software today from Apple machine learning research.
MLX is an efficient machine learning framework specifically designed for Apple silicon (i.e. your laptop!)
Code: https://t.co/Kbis7IrP80
Docs: https://t.co/CUQb80HGut— Awni Hannun (@awnihannun) December 5, 2023