Nguồn ảnh:https://www.wired.com/story/openai-ilya-sutskever-ai-safety/
AI Safety Một mục tiêu ngàn thu, công ty OpenAI từng thất bại khi thử thách AI dự đoán ai sẽ thắng cuộc bầu cử tổng thống Mỹ. Sau cái thất bại đó, họ đã phải hàng năm xuất bản các cấu trúc mô phỏng được sử dụng để tạo ra các đầu ra nhân tạo trong một môi trường thử nghiệm.
Thí nghiệm này cuối cùng đã thu được sự chú ý quốc tế khi AI Safety thu hút được người dẫn đường nổi tiếng Ilya Sutskever đến làm việc. Ông Sutskever là một trong những người sáng lập công ty nghiên cứu trí tuệ nhân tạo OpenAI.
OpenAI đã công bố thông tin cùng với một bài đăng trên blog vào ngày 30 tháng 4. Ông Sutskever đã chuyển đến OpenAI sau khi rời khỏi Google Brain – một đơn vị nghiên cứu về trí tuệ nhân tạo của Google.
Ông Sutskever cho biết việc thử nghiệm AI Safety hoạt động tốt đã làm ông hứng thú và muốn tận hưởng những cơ hội lớn hơn. Ông hy vọng sẽ giúp OpenAI đạt được mục tiêu của mình là đảm bảo an toàn khi phát triển trí tuệ nhân tạo.
Công việc của ông sẽ tập trung vào sự an toàn và hiệu suất của các mô hình mô phỏng trí tuệ nhân tạo. Ông Sutskever sẽ cùng đội ngũ nghiên cứu của OpenAI tìm hiểu và tạo ra các giải pháp để đảm bảo an toàn trong thành công của trí tuệ nhân tạo.