Революционное обновление, которое точно разделит историю развития OpenAI на «до» и «после». Если раньше пользователи общались с сервисом в формате чат-бота, то теперь нейросеть может слышать и видеть людей, понимать эмоции и имитировать их.
Важно отметить улучшение работы ИИ с голосом. Эта функция стала значительно быстрее, что позволяет общаться с сервисом в режиме реального времени — не нужно записывать голосовые сообщения, отправлять их на сервер и ждать ответ в виде другой аудиозаписи. Все происходит максимально нативно, по ощущениям, GPT-4o сейчас — лучший голосовой интерфейс для компьютера.
Второе колоссальное достижение OpenAI- включение зрения для нейросети. При запуске ИИ на смартфоне или компьютере GPT-4o подключается к встроенной камере устройства и анализирует объекты в кадре. Так программа улавливает изменения в мимике человека, определяет эмоции собеседника не только по тембру голоса, но и по его лицу. Жесты, животные, одежда, мебель и многое другое подвергаются анализу, идентификации и интерпретации со стороны GPT-4o.
Будущее уже наступило?