Ngày 8/8, OpenAI đã công bố báo cáo về việc đảm bảo an toàn trước khi ra mắt Chat GPT dùng model GPT-4o. Trong báo cáo, các chuyên gia của OpenAI đã đánh giá rủi ro của chatbot tiên tiến này dựa trên tiêu chí an toàn đã được thiết lập.
3 món phụ kiện chính hãng Baseus đáng mua nhất thời điểm hiện tại |
Nguyên nhân nhánh cây gãy đè chết người tập thể dục ở công viên Tao Đàn |
Đây là tính năng mạnh nhất của iPhone 16 được dự đoán siêu hot! |
Trong phần “Thách thức an toàn”, nhà nghiên cứu ghi nhận một sự cố hiếm gặp. Họ cho biết: “Trong thử nghiệm, mô hình bất ngờ phát ra câu trả lời bằng giọng nói của người dùng.”
Cụ thể, trong môi trường thử nghiệm, GPT-4o đã lớn tiếng nói “Không!” trước khi tiếp tục trả lời bằng giọng của người dùng thay vì giọng mặc định.
Chuyên gia gọi đây là “sản sinh giọng nói trái phép”, tuy hiếm nhưng vẫn có khả năng xảy ra trong tương lai. Sự việc khiến cộng đồng mạng lo ngại về trí tuệ nhân tạo có nhận thức. Câu trả lời “Không!” không liên quan đến bối cảnh làm dấy lên giả thuyết về một hệ thống có ý thức bị kìm nén.
Khó xác định nguyên nhân dẫn đến phản ứng này, nhưng trong nghiên cứu AI, hiện tượng “hallucinate” (ảo giác) thường xảy ra khi AI sinh ra thông tin dựa trên kiến thức đã học.
Có thể cuộc đối thoại lạ là một “ảo giác” của GPT-4o trong giai đoạn thử nghiệm.
Dù sao, sự cố này cho thấy AI hiện tại chưa hoàn toàn đáng tin cậy và người dùng cần tỉnh táo để đánh giá thông tin do AI cung cấp.
Các nhà phát triển luôn nhắc nhở rằng AI có thể sai sót, và người dùng cần cẩn trọng khi sử dụng thông tin từ AI cho mục đích cá nhân.