Apple konsekwentnie rozwija linię swoich bezprzewodowych słuchawek, nadając im nowe funkcjonalności wykraczające poza standardowe zastosowania audio. Ostatnie zmiany w AirPods Pro 2 udowodniły, że firma coraz mocniej stawia na technologie związane z dobrym samopoczuciem i zdrowiem użytkowników, oferując zaawansowaną redukcję hałasu, testy słuchu oraz funkcję aparatu słuchowego. Teraz gigant z Cupertino planuje kolejne nowości – AirPods mogą stać się osobistymi tłumaczami w czasie rzeczywistym.
Według informacji ujawnionych przez Bloomberg, Apple intensywnie pracuje nad wdrożeniem funkcji tłumaczenia w czasie rzeczywistym do swoich słuchawek. Celem nowej technologii ma być eliminacja barier językowych podczas rozmów na żywo, co może okazać się rewolucyjnym rozwiązaniem dla podróżników, biznesmenów i każdego, kto na co dzień styka się z wielojęzycznym środowiskiem.
Funkcja ta ma zostać wprowadzona w ramach aktualizacji oprogramowania powiązanej z iOS 19. System tłumaczenia ma działać dwukierunkowo, angażując zarówno iPhone'a, jak i AirPods w przetwarzanie i przekazywanie komunikatów.
Jak to będzie działać?
Nowe rozwiązanie będzie wykorzystywać iPhone jako centrum tłumaczeń. Jego zadaniem będzie zamiana języka A na język B, a następnie przesyłanie przetłumaczonego dźwięku do użytkownika AirPods. W tym samym czasie drugi rozmówca otrzyma tłumaczenie swojego języka na język A poprzez głośnik iPhone'a. Takie podejście może sprawić, że rozmowy między osobami posługującymi się różnymi językami staną się płynniejsze i bardziej naturalne.
Na razie nie wiadomo, jaki model tłumaczeniowy zostanie wykorzystany do tej funkcji. Apple nie ujawnia, czy zamierza oprzeć technologię na własnych algorytmach sztucznej inteligencji, czy też skorzystać z gotowych rozwiązań, takich jak ChatGPT od OpenAI lub inne popularne systemy tłumaczeniowe. Nieznana jest także liczba języków, które początkowo obsłuży nowa funkcja.
Apple kontra konkurencja – czy gigant z Cupertino jest spóźniony?
Choć funkcja tłumaczenia w czasie rzeczywistym brzmi imponująco, Apple nie jest pierwszą firmą, która eksperymentuje z taką technologią. Google już od kilku lat oferuje podobne rozwiązanie w swoich słuchawkach Pixel Buds, wykorzystując Google Translate do obsługi niemal 50 języków.
Ponadto, na rynku dostępne są również produkty takie jak Earfun AirPro 4+, Mymanu Click czy Mars, które również oferują wbudowane systemy tłumaczeń wspierane przez sztuczną inteligencję. Istnieją także specjalistyczne urządzenia do tłumaczeń, jak Timekettle X1, skierowane głównie do klientów biznesowych i korporacyjnych. Warto wspomnieć, że chatboty AI, w tym Google Gemini, także umożliwiają szybkie tłumaczenie tekstów i rozmów w czasie rzeczywistym.
Jaką drogę wybierze Apple?
Apple ma kilka opcji do wyboru. Może skorzystać z istniejących rozwiązań, takich jak OpenAI, lub opracować własną technologię tłumaczeniową, co pozwoliłoby mu zachować pełną kontrolę nad przetwarzaniem danych użytkowników. Patrząc na dotychczasowe podejście firmy, stawiające na prywatność i bezpieczeństwo, bardzo możliwe jest, że Apple zdecyduje się na wdrożenie tłumaczenia w pełni działającego na urządzeniu, bez konieczności połączenia z chmurą.
Podobną strategię przyjęła już Meta, która w 2022 roku udostępniła jako open source własne narzędzie do tłumaczeń obsługujące niemal 200 języków. Apple może zatem podążyć podobną drogą, oferując wbudowany system tłumaczenia, który zapewni użytkownikom zarówno wygodę, jak i pełną prywatność.

Pokaż / Dodaj komentarze do: Słuchawki AirPods dostaną tłumacza na żywo. Apple zaczyna gonić konkurencję