Theo bài đăng trên blog của nền tảng phát triển AI HumanLoop, Giám đốc điều hành OpenAI Sam Altman cho biết trong một cuộc hội thảo kín rằng OpenAI hiện đang bị giới hạn bởi GPU, điều này đã làm trì hoãn nhiều kế hoạch ngắn hạn và đặt ra câu hỏi về độ tin cậy và tốc độ của ChatGPT cũng là do thiếu tài nguyên GPU.
Sam Altman cũng chia sẻ lộ trình tương lai của OpenAI: Chi phí API GPT-4 sẽ giảm vào năm 2023; cửa sổ ngữ cảnh ChatGPT dài hơn (tối đa 1 triệu mã thông báo), sẽ khởi chạy phiên bản API ghi lại lịch sử hội thoại; khả năng đa phương thức của GPT-4 là dự kiến sẽ ra mắt công chúng vào năm 2024, nhưng không thể mở rộng phiên bản tầm nhìn của GPT-4 cho mọi người cho đến khi có nhiều tài nguyên GPU hơn.
Hơn nữa, OpenAI đang xem xét mã nguồn mở GPT-3, điều mà họ đã không thực hiện một phần vì họ tin rằng không nhiều người và công ty có khả năng quản lý đúng cách một mô hình ngôn ngữ lớn như vậy. Nhiều bài báo gần đây cho rằng "kỷ nguyên của những mô hình AI khổng lồ đã qua" là không đúng. Dữ liệu nội bộ của OpenAI cho thấy quy luật tỷ lệ thuận giữa quy mô và hiệu suất vẫn đúng và quy mô mô hình của OpenAI có thể tăng gấp đôi, gấp ba mỗi năm (nhiều thông tin cho thấy Kích thước tham số GPT-4 là 1 nghìn tỷ), thay vì nhiều bậc độ lớn hơn.
Sử dụng Claude AI để điều khiển máy tính phát hành coin, gửi tiền đến Truth Terminal và tìm hiểu về Meme ANT mới
Nền tảng ra mắt Meme trở thành cơ sở hạ tầng chuỗi công cộng? Kho đĩa giả "Pump.fun" của từng chuỗi
Các tùy chọn Bitcoin ETF được phê duyệt, liệu Bitcoin có tăng trưởng bùng nổ không?