OpenAI pokazało niektórym swoim klientom nowy multimodalny model sztucznej inteligencji, który może z Tobą rozmawiać i rozpoznawać obiekty Nowy raport z Informacja. Powołując się na anonimowe źródła, które to widziały, portal twierdzi, że może to być część tego, co firma planuje pokazać w poniedziałek.
Mówi się, że nowy model zapewnia szybszą i dokładniejszą interpretację obrazów i dźwięku niż obecne modele oddzielnej transkrypcji i zamiany tekstu na mowę. Najwyraźniej będzie w stanie pomóc agentom obsługi klienta „lepiej zrozumieć ton głosu rozmówców lub to, czy jest on sarkastyczny” oraz „teoretycznie” model może pomóc uczniom w matematyce lub tłumaczeniu sygnałów ze świata rzeczywistego – pisze. . Informacja.
Źródła outletu mówią, że model ten może przewyższać GPT-4 Turbo w „odpowiadaniu na niektóre rodzaje pytań”, ale nadal jest podatny na błędy.
Według programisty Ananay Arora, który zamieścił powyższy zrzut ekranu kodu związanego z połączeniami, możliwe jest, że OpenAI będzie także wyposażone w nową wbudowaną funkcję ChatGPT do wykonywania połączeń telefonicznych. Aurorę też Znaleziono dowody OpenAI posiada dedykowane serwery do komunikacji audio i wideo w czasie rzeczywistym.
Nic z tego nie byłoby GPT-5, jeśli zostanie zaprezentowane w przyszłym tygodniu. Dyrektor generalny Sam Altman kategorycznie zaprzeczył, że jego nadchodzące ogłoszenie ma cokolwiek wspólnego z tym, jaki model ma być”.Finansowo lepiej„Z GPT-4. Informacja Pisze, że GPT-5 może zostać upubliczniony do końca roku.
„Zła entuzjasta podróży. Irytująco skromny ćpun internetu. Nieprzepraszający alkoholiczek”.