Okulary Zuckerberga będą widzieć to co ty i słyszeć to co ty. Wszystko w imię ułatwienia życia

Okulary Zuckerberga będą widzieć to co ty i słyszeć to co ty. Wszystko w imię ułatwienia życia

Meta wypuszcza aktualizację dla swoich inteligentnych okularów, które powstały we współpracy z Ray-Ban. Nowa wersja oprogramowania dodaje funkcje bazujące na sztucznej inteligencji. Pojawiło się między innymi tłumaczenie rozmów na żywo.

Inteligentne okulary Ray-Ban Meta otrzymały nową aktualizację. Wersja v11 jest już wprowadzana. To całkiem spore uaktualnienie przynoszące kilka zaawansowanych narzędzi. Jednym z nich jest "live AI". To funkcja, która pozwala sztucznej inteligencji na bieżąco rejestrować to co znajduje się przed oczami użytkownika. Meta tłumaczy, że dzięki temu okulary będą w stanie przeprowadzać bardziej naturalne rozmowy.

Kiedy sztuczna inteligencja uzna, że moment jest odpowiedni to nawet sama, bez proszenia jej, udzieli wskazówek.

Funkcja live AI ma przydawać się w trakcie codziennych zadań, jak sprzątanie czy gotowanie. Jeśli sesja live AI jest włączona użytkownik nie będzie musiał wywoływać sztucznej inteligencji słowami "Hey Meta". Wystarczy że po prostu zapyta o coś. Można też odnosić się do wcześniej poruszanych tematów i przerywać AI w dowolnym momencie. Kiedy sztuczna inteligencja uzna, że moment jest odpowiedni to nawet sama, bez proszenia jej, udzieli wskazówek.

Tłumaczenie na żywo

Kolejną nowością jest tłumaczenie na żywo. Okulary będą mogły robić to w czasie rzeczywistym. Urządzenie zacznie rejestrować mowę drugiej osoby i automatycznie przetłumaczy ją na język angielski, Włoski, Hiszpański lub Francuski, a następnie odtworzy z wbudowanych głośników lub wyświetli tekst na smartfonie. Funkcja jak na razie działa tylko z tymi czterema językami. Funkcja tłumaczenia na żywo została pokazana około dwa miesiące temu przez samego Marka Zuckerberga w trakcie wystąpienia na Connect Keynote 2024.  

Okulary same rozpoznają muzykę, która leci w tle

Na liście narzędzi wprowadzanych przez aktualizację v11 znalazła się również integracja z Shazam, czyli aplikacją do rozpoznawania muzyki tylko na podstawie jej fragmentu. Włączając Shazam można w prosty sposób dowiedzieć się jaki jest tytuł słyszanego przez nas utworu oraz kto jest jego wykonawcą. Funkcja identyfikacji muzyki za pomocą Shazam jest aktualnie dostępna tylko w USA i Kanadzie.

Meta już teraz planuje kolejne aktualizacje dla swoich inteligentnych okularów. Możemy spodziewać się, że i następne aktualizacje będą wprowadzać kolejne funkcje napędzane przez sztuczną inteligencję.


 

Obserwuj nas w Google News

Pokaż / Dodaj komentarze do: Okulary Zuckerberga będą widzieć to co ty i słyszeć to co ty. Wszystko w imię ułatwienia życia

 0
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł
Kolejny proponowany artykuł