Theo tin tức từ BitouchNews, OpenAI đã phát hành mẫu hàng đầu mới nhất của mình, GPT-4o, cho phép suy luận dữ liệu âm thanh, hình ảnh và văn bản theo thời gian thực. Nó được thiết kế để trở thành một trợ lý tương tác bằng giọng nói được cá nhân hóa với các đặc điểm giống con người, siêu nhiên, và độ trễ cực thấp.
Theo trang web chính thức của OpenAI và tài khoản chính thức của Platform X, chữ "o" trong GPT-4o là viết tắt của Omni, thể hiện một bước tiến tới sự tương tác giữa người và máy tự nhiên hơn . Nó chấp nhận các kết hợp văn bản, âm thanh và hình ảnh tùy ý làm đầu vào và hỗ trợ tạo ra các kết hợp đầu ra văn bản, âm thanh và hình ảnh tùy ý. Nó có thể phản hồi với đầu vào âm thanh trong vòng 232 mili giây, trung bình là 320 mili giây, tương tự như thời gian phản ứng của con người. trong các cuộc hội thoại. Về mặt tiếng Anh và mã, nó hoạt động tương đương với GPT-4 Turbo, với những cải tiến đáng kể ở các văn bản không phải tiếng Anh. Ngoài ra, tốc độ API nhanh hơn và chi phí thấp hơn 50% so với các mẫu hiện có, GPT-4o. vượt trội về khả năng hiểu bằng hình ảnh và âm thanh. Tính năng nhập văn bản và hình ảnh sẽ ra mắt ngay hôm nay trong API và ChatGPT, trong khi tính năng nhập bằng giọng nói và video sẽ có trong vài tuần tới.

“Những người trung thành với nhà Thanh” đang đổ xô đi phát hành tiền mới. Họ đang cung cấp “thuốc trẻ hóa” hay “lưỡi hái mới”?
Hướng dẫn sinh tồn trong thị trường downtrend: Ba chiến lược kiếm lợi nhuận từ tiền điện tử không phụ thuộc vào điều kiện thị trường
Nói lời tạm biệt với chu kỳ 4 năm. Làm thế nào để tiếp tục kiếm lợi nhuận trong bối cảnh tiền điện tử mới vào năm 2025?