Według doniesień Apple przygotowuje się do osadzenia nowych modeli sztucznej inteligencji w kilku komponentach iOS, w tym we wbudowanej bibliotece emoji i Siri.
Bloomberga wspomniany Poprawki w przyszłą niedzielę, powołując się na źródła zaznajomione ze sprawą. Oczekuje się, że Apple zaprezentuje nowe funkcje podczas wydarzenia dla programistów WWDC 2024 w przyszłym miesiącu. Oczekuje się, że ulepszenia zadebiutują równolegle Wiele innych nowych możliwości AI To wyciekło w ciągu ostatnich kilku tygodni.
Firma Apple historycznie poszerzała swój katalog emoji w systemie iOS o dziesiątki dodatków każdego roku. Oczekuje się, że podczas WWDC firma zaprezentuje narzędzie oparte na sztucznej inteligencji, które umożliwi konsumentom tworzenie własnych, niestandardowych emoji przy użyciu instrukcji w języku naturalnym. Nie jest jasne, które aplikacje będą obsługiwać tę funkcję.
W przyszłości konsumenci mogą również uzyskać możliwość animowania emoji, które utworzą, za pomocą narzędzia AI. W lutym grupa badaczy z Apple Zawias Aplikacja do uczenia maszynowego o nazwie Keyframe może animować nieruchome obrazy na podstawie podpowiedzi użytkownika. Pod maską wykorzystuje duże modele językowe, aby przekształcić instrukcje użytkownika w animowany projekt.
Oczekuje się, że wraz z aktualizacją biblioteki emoji Apple ulepszy sposób, w jaki iOS wyświetla ikony aplikacji. Według doniesień użytkownicy otrzymają możliwość swobodniejszej zmiany koloru i układu ikon na ekranach głównych. Obecnie na ekranie głównym systemu iOS wyświetlane są tylko ikony w ustalonym układzie siatki.
Mówi się, że Siri jest kolejnym ważnym tematem aktualizacji systemu operacyjnego. Oczekuje się, że Apple sprawi, że asystent AI będzie bardziej przydatny dla użytkowników Apple Watch, a także wyposaży go w opracowane wewnętrznie oprogramowanie LLM, które będzie generować bardziej naturalne reakcje. Amazon.com Inc. jest Powiedziało Przygotowywana jest podobna aktualizacja dla konkurencyjnego asystenta Alexa, która doda niestandardowe LLM, aby poprawić wygodę użytkownika.
Dostępne są jedynie ograniczone informacje na temat sieci neuronowych, których Apple używa do obsługi funkcji AI w iOS 18. Według Bloomberga najbardziej wymagające sprzętowo zadania AI zostaną przeniesione do modeli wdrożonych w chmurze. Mniej wymagające obliczenia zostaną wykonane na urządzeniu użytkownika.
W kwietniu Apple Otwarte źródło Zbiór małych modeli językowych zaprojektowanych do działania na urządzeniach o ograniczonej mocy obliczeniowej. W związku z tym wypuściło narzędzie do konwersji modeli językowych do postaci, którą można uruchomić na iPhone’ach. Technologie opracowane w ramach tego projektu mogą nadawać się do obsługi niektórych ulepszeń AI w iOS 18.
Według doniesień niektóre ulepszenia aktualizacji systemu operacyjnego będą oparte na modelach AI z OpenAI. Według Bloomberga Apple oficjalnie ogłosi na WWDC swoje długo wspominane partnerstwo z deweloperem LLM. A Oddzielny raport W zeszłym miesiącu zasugerował, że firmy mogłyby współpracować nad opracowaniem nowej usługi chatbota i narzędzi wyszukiwania dla systemu iOS.
zdjęcie: Pixabay
Twój głos jest dla nas ważny i pomaga nam zachować wolność treści.
Jedno kliknięcie poniżej wspiera naszą misję zapewniania bezpłatnych, pogłębionych i odpowiednich treści.
Dołącz do naszej społeczności na YouTube
Dołącz do społeczności ponad 15 000 ekspertów #CubeAlumni, w tym dyrektora generalnego Amazon.com Andy’ego Jassy’ego, założyciela i dyrektora generalnego firmy Dell Technologies Michaela Della, dyrektora generalnego firmy Intel Pata Gelsingera oraz wielu innych znanych osobistości i ekspertów.
Dziękuję
„Zła entuzjasta podróży. Irytująco skromny ćpun internetu. Nieprzepraszający alkoholiczek”.