Theo tin tức từ BitouchNews, OpenAI đã phát hành mẫu hàng đầu mới nhất của mình, GPT-4o, cho phép suy luận dữ liệu âm thanh, hình ảnh và văn bản theo thời gian thực. Nó được thiết kế để trở thành một trợ lý tương tác bằng giọng nói được cá nhân hóa với các đặc điểm giống con người, siêu nhiên, và độ trễ cực thấp.
Theo trang web chính thức của OpenAI và tài khoản chính thức của Platform X, chữ "o" trong GPT-4o là viết tắt của Omni, thể hiện một bước tiến tới sự tương tác giữa người và máy tự nhiên hơn . Nó chấp nhận các kết hợp văn bản, âm thanh và hình ảnh tùy ý làm đầu vào và hỗ trợ tạo ra các kết hợp đầu ra văn bản, âm thanh và hình ảnh tùy ý. Nó có thể phản hồi với đầu vào âm thanh trong vòng 232 mili giây, trung bình là 320 mili giây, tương tự như thời gian phản ứng của con người. trong các cuộc hội thoại. Về mặt tiếng Anh và mã, nó hoạt động tương đương với GPT-4 Turbo, với những cải tiến đáng kể ở các văn bản không phải tiếng Anh. Ngoài ra, tốc độ API nhanh hơn và chi phí thấp hơn 50% so với các mẫu hiện có, GPT-4o. vượt trội về khả năng hiểu bằng hình ảnh và âm thanh. Tính năng nhập văn bản và hình ảnh sẽ ra mắt ngay hôm nay trong API và ChatGPT, trong khi tính năng nhập bằng giọng nói và video sẽ có trong vài tuần tới.
Phát hành tiền trước hay tìm sự phù hợp với thị trường trước? Dường như "Thời điểm" càng quan trọng hơn
CARV ra mắt cơ chế tự báo cáo để các phù thủy có thể tự báo cáo giữ lại 15% số token được phân bổ ban đầu.
Trò chuyện với nhà sáng lập Folius Ventures: Số lượng dự án cần bán coin đã tăng hàng trăm, hàng nghìn lần so với chu kỳ trước, tình trạng “xáo trộn” sẽ tiếp tục trong 18 tháng tới