Mastodon
Zdjęcie okładkowe wpisu OpenAI z rozpoznawaniem emocji – co na to Google?

OpenAI z rozpoznawaniem emocji – co na to Google?

0
Dodane: 7 miesięcy temu

Nowe rozwiązania od Open AI mogą zrewolucjonizować nasze życie. Podróże bez znajomości języka będą jeszcze łatwiejsze, ale coś dla siebie dostaną też duże marki. Nowy ChatGPT będzie mógł odczytywać nasze emocje “na żywo”, a to dla reklamodawców może być wiedza bezcenna, choć dla samych użytkowników, niekoniecznie.

Ciężko pracowaliśmy nad kilkoma nowymi rzeczami, które naszym zdaniem ludzie pokochają! Wydaje mi się to magią – podsycał emocje wpisami w serwisie X Sam Altman, CEO OpenAI.

Najciekawsze jest to, że kolejne rozwiązania OpenAI najwyraźniej „podgryzają” wyszukiwarkowy monopol Google’a. Udział giganta w światowym rynku, choć wysoki, to topnieje. W marcu było to 91,338 proc. Obecnie wynosi on 90,91 proc., a rok temu aż 93,11 proc. CEO Semcore zgadza się ze zdaniem analityków, że osłabienie pozycji Google to także wynik tego, że użytkownicy odchodzą do bardziej zaawansowanych narzędzi AI. Także do ChataGPT. – W 2023 roku miał ok. 100 milionów użytkowników i stał się najszybciej rozwijającą się aplikacją na świecie. Facebook czy Instagram na osiągnięcie takiego wyniku potrzebowały kilku lat, a ChatGPT zrobił to w iście błyskawicznym czasie – rzuca liczbami Marcin Stypuła z Semcore i dodaje: – Jeśli miałbym użyć języka sportowego, to pojawienie się ChatGPT było dla Google jak zdobycie przez przeciwnika gola kontaktowego. Prezentacja wyszukiwarki może być kolejnym trafieniem doprowadzającym do remisu, a od tego momentu wszystko już będzie możliwe.

OpenAI ogłosiło aplikację ChatGPT dla komputerów Mac

Google nie pozostaje bierne i szykuje się do odparcia ataku. Od kilku miesięcy testuje nowe możliwości swojej wyszukiwarki. Od kilku tygodni poszerza grono testujących o kolejnych użytkowników. Na razie z USA i Wielkiej Brytanii. Jak to działa?
Wyszukiwarka Google wyświetla odpowiedź wygenerowaną przez sztuczną inteligencję na wpisane przez użytkownika hasło. Wypowiedź stworzona przez AI znajduje się na samym szczycie listy wyszukiwań, a czcionka i tło nieco różni się od tradycyjnych wyników. Google zaznacza też, że ten fragment nie został stworzony przez człowieka i wskazuje cytaty, skąd jego model AI pozyskał informacje, aby udzielić odpowiedzi. Następnie można prześledzić te cytaty i samodzielnie sprawdzić źródła lub kontynuować wyszukiwanie np. używając innego zapytania, lub przeglądając inne wyniki. Pod wypowiedzią wygenerowaną przez sztuczną inteligencję pojawia się zwykła lista wyników wyszukiwania, do których użytkownicy przez lata się przyzwyczajali. Google przekonuje, że przetestował już grubo ponad miliard zapytań, a użytkownicy mają być bardziej zadowoleni z tego, jak działa wyszukiwarka.

Może to w znaczący sposób wpłynąć na działanie witryn informacyjnych lub związanych z mediami, ponieważ w dużej mierze zależą one od ruchu z wyników wyszukiwania Google. Ktoś musi ustąpić miejsca odpowiedziom stworzonym przez AI. Jednak, co oczywiste, w pierwszej kolejności tracić będą strony słabej jakości, które przetwarzają tylko informacje od innych. Pierwsze zapowiedzi OpenAI sugerowały podobny model, więc tym większa praca przed tymi, których biznes zależy w dużym stopniu od wysokiej pozycji w wyszukiwarce – podkreśla Marcin Stypuła z Semcore.

OpenAI pokazało ulepszenia dotyczące ChataGpt oraz nowy model – GPT-4o. Model ten został udostępniony wszystkim użytkownikom bezpłatnej wersji ChatGPT.
Rozmowy z ChatGPT mają odbywać się z pominięciem transkrypcji. Przyspiesza to proces, a co jeszcze ciekawsze, algorytmowi można „wejść w słowo” i co umożliwi dynamiczną interakcję.

GPT4-o, będzie miał swoje „oczy”, którymi będzie oczywiście kamera w aparacie. Dzięki temu algorytm będzie mógł szybko ocenić otoczenie i jeszcze lepiej podpowiadać człowiekowi. Podczas prezentacji pokazano też jak “będziemy rozmawiać” podczas podróży. Program, rozpoznając zdania w języku włoskim wypowiedziane przez Mirę Murati, dyrektorkę techniczną firmy, przekształcał jej słowa na bieżąco na język angielski. Następnie reagował od razu, tłumacząc odpowiedzi po angielsku z powrotem na włoski.

Na koniec zademonstrowano coś „ekstra”. GPT-4o rozpoznaje i nazywa emocje na podstawie obserwacji twarzy przez kamerę. Podczas konferencji przedstawiono uśmiechniętą twarz jednego z przedstawicieli OpenAI, a sztuczna inteligencja zapytała, dlaczego cieszy się. To właśnie Altman określił jako “magię”.

Użytkowników uspokajam. GPT-4o uruchomiony w przeglądarce, nie uaktywnia kamery i nie rejestruje mimiki twarzy. Jeżeli nie chcesz ujawniać AI swoich emocji, nie musisz tego robić.

Zapraszamy do dalszej dyskusji na Mastodonie lub Twitterze .