Theo tin tức từ BitouchNews, công ty phát triển ChatGPT OpenAI đã xuất bản một bài báo có tiêu đề "Cách tiếp cận của chúng tôi đối với an toàn AI" ("Cách tiếp cận của chúng tôi đối với an toàn AI") trên trang web chính thức của mình, giới thiệu việc triển khai của công ty nhằm đảm bảo an toàn cho các mô hình AI.
Bài báo nói rằng các công cụ AI mang lại nhiều lợi ích cho con người ngày nay. OpenAI cũng nhận thức được rằng, giống như bất kỳ công nghệ nào, những công cụ này tiềm ẩn rủi ro thực sự, vì vậy công ty đang nỗ lực để đảm bảo rằng bảo mật được tích hợp vào mọi lớp của hệ thống.
Trước khi phát hành bất kỳ hệ thống mới nào, OpenAI tiến hành thử nghiệm nghiêm ngặt, thuê các chuyên gia bên ngoài để cung cấp phản hồi, cải thiện hành vi của các mô hình thông qua các kỹ thuật như học tăng cường với phản hồi của con người và xây dựng các hệ thống giám sát và an toàn mở rộng.
Ngoài ra, OpenAI tin rằng các hệ thống AI mạnh mẽ phải được đánh giá an toàn nghiêm ngặt. Quy định là cần thiết để đảm bảo các hoạt động như vậy và chúng tôi tích cực làm việc với các chính phủ để phát triển hình thức tốt nhất của quy định đó.
Đồng thời, xã hội phải có thời gian để thích nghi và thích ứng với AI ngày càng mạnh mẽ. OpenAI cũng sẽ tập trung vào việc bảo vệ trẻ em, tôn trọng quyền riêng tư và nâng cao tính chính xác của dữ kiện làm trọng tâm của công việc bảo mật ChatGPT và chi tiêu nhiều hơn thời gian và Tài nguyên nghiên cứu các kỹ thuật và biện pháp giảm thiểu hiệu quả, đồng thời thử nghiệm chúng với các trường hợp sử dụng đa dạng trong thế giới thực.
Phát hành tiền trước hay tìm sự phù hợp với thị trường trước? Dường như "Thời điểm" càng quan trọng hơn
CARV ra mắt cơ chế tự báo cáo để các phù thủy có thể tự báo cáo giữ lại 15% số token được phân bổ ban đầu.
Trò chuyện với nhà sáng lập Folius Ventures: Số lượng dự án cần bán coin đã tăng hàng trăm, hàng nghìn lần so với chu kỳ trước, tình trạng “xáo trộn” sẽ tiếp tục trong 18 tháng tới