Mastodon
Zdjęcie okładkowe wpisu Sztuczna inteligencja – im więcej danych tym lepiej? Niekoniecznie

Sztuczna inteligencja – im więcej danych tym lepiej? Niekoniecznie

0
Dodane: 1 rok temu

Premiera modelu GPT 3.x i wprowadzenie na rynek przez OpenAI wprowadziło sztuczną inteligencję „pod strzechy”. Również w świecie IT nie było wcześniej takiej euforii i szybkości adaptacji od czasu pojawienia się technologii blockchain. Według tegorocznego raportu IDC do 2026 roku wydatki na sztuczną inteligencję na świecie wyniosą ponad 301 mld dolarów, czyli dwukrotnie więcej niż obecnie. Sztuczną inteligencję chcą mieć dziś wszyscy gracze w branży, ekspert z Red Hat, Jan Wildeboer zwraca jednak uwagę na kilka pułapek. Oddajmy mu głos.

Według Wildeboera, który w firmie Red Hat pełni rolę Open Source Evangelist na region EMEA, obiecuje się, że sztuczna inteligencja przyczyni się do poprawy wydajności pracowników, zwiększenia zadowolenia klientów oraz minimalizacji ryzyka biznesowego. Pod wpływem tej euforii wielu pracowników skłania się do eksperymentów z narzędziami SI i dąży do bycia pionierem w tej dziedzinie. Jednak chcąc wykorzystać nowe sposoby budowania przewagi konkurencyjnej, nieświadomie narażają swoje organizacje na ryzyko.

Jan Wildeboer przypomina o popularnej narracji, według której dane są cennym zasobem, więc zwiększanie ich ilości przyczynia się do wzrostu ich wartości. Zdaniem eksperta nie zawsze jest to prawda. Im więcej używanych jest różnych zbiorów danych, tym trudniej zapewnić ich wiarygodność i dokładność. Dodatkowo istnieje ryzyko naruszeń praw autorskich, do których sztuczna inteligencja może przypadkowo doprowadzić.

Spójrzmy na rzecz na przykładzie ChatGPT. Na stronie OpenAI widoczne jest zastrzeżenie, że program „może generować niedokładne informacje”. Istnieje wiele dowodów potwierdzających tę tezę. Może nie stanowić to większego problemu, jeśli potrzebujemy tylko przepisu na biszkopt, ale staje się poważnym zagrożeniem, jeśli wykorzystujemy go np. do badania orzecznictwa. Umiejętność budowania zdań nie oznacza jeszcze, że te zdania są prawdziwe.

Załóżmy teraz, że SI pracuje w środowisku biznesowym gdzie automatycznie zarządza się poziomami zasobów; konfiguruje wynagrodzenia na podstawie wydajności; prognozuje kwartalne przepływy pieniężne; optymalizuje transakcje walutowe i inne, podejmuje fundamentalne decyzje, które mają ogromny wpływ na rentowność biznesu. Wszystko to można skutecznie kontrolować dzięki dojrzałej strategii zarządzania danymi i SI. Problem pojawia się, gdy pracownicy zaczynają korzystać z nieautoryzowanych i niezweryfikowanych narzędzi wykorzystujących sztuczną inteligencję. Uniemożliwia to kontrolę.

AI

Jan Wildeboer (fot. materiały prasowe Red Hat)

Wildeboer zwraca uwagę na dwa problemy: jak zagwarantować integralność znanych i stosowanych narzędzi SI oraz jak powstrzymać pracowników przed używaniem niezweryfikowanych narzędzi w swojej pracy?

Zdaniem Wildeboera, przyszłość sztucznej inteligencji nie leży w dużych modelach językowych, które obecnie dominują w medialnych nagłówkach, ani w innych ogólnych rozwiązaniach, które będą służyć wielu użytkownikom. Przedsiębiorstwa będą potrzebowały rozwiązań, które są specyficzne dla ich branży, klientów i zadań. To nie jest osamotniony pogląd, jakiś czas temu zwracałem Wam uwagę na obawy Google i OpenAI jeżeli chodzi o niewielkie modele AI.

Google i OpenAI stracą przewagę w wyścigu AI?

Wildeboer sugeruje raczej, że nastąpi coś, co będzie nazwać epoką „specjalistycznej sztucznej inteligencji” z unikalnymi i zróżnicowanymi usługami realizowanymi przez wiele niewielkich AI, a nie jeden olbrzymi i wszechstronny twór. Takie jednak podejście wymaga, aby modele bazowe były szkolone na danych prywatnych i dostosowywane do standardów oraz praktyk danej firmy lub branży. Trening oparty na zweryfikowanych danych da nam model AI zupełnie odmienny od tego, który trenowany jest olbrzymimi losowymi zbiorami danych zebranych z różnych źródeł.

Wildeboer zdradza, że naprawdę „wtajemniczeni” wiedzą, że właśnie w dziedzinie sztucznej inteligencji zachodzą najciekawsze innowacje. Opracowywane są zestawy narzędzi do SI specyficznej dla danej branży. Już teraz wydają się one mieć większy potencjał od dużych graczy w dziedzinie sztucznej inteligencji.

Ekspert Red Hat zwraca też uwagę, że tworzeniu narzędzi AI musi towarzyszyć przejrzystość i wiarygodność, a same narzędzia powinny być opracowane wspólnie z zespołami odpowiedzialnymi na przestrzeganie prawa.

Samo prawo również dostosowuje się do sytuacji. Wildeboer zwraca uwagę, że konieczne jest tworzenie i egzekwowanie wytycznych dotyczących tego, jak i kiedy używać SI, a także stawianie pytań o pochodzenie danych. AI Act Unii Europejskiej, AI Bill of Rights w USA, brytyjski AI Regulation Policy Paper czy przepisy ChRL dotyczące zarządzania algorytmicznymi rekomendacjami – wszystko to wskazuje, że organy regulacyjne będą pytać twórców AI o pochodzenie danych i egzekwować przestrzegania zasad. Ekspert zwraca też uwagę, że trudno będzie zrzucić winę na dostawcę, gdy AI wykorzystywana przez daną firmę powstanie w oparciu o własne dane konkretnego podmiotu.

Na koniec Wildeboer zwraca uwagę, że rozsądnym podejściem jest zatrzymanie się, przeanalizowanie i upewnienie się, że inwestycje w sztuczną inteligencję – w systemy, ludzi i kulturę – uwzględniają zarówno szanse, jak i zagrożenia.

 

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .