Bạn có quan tâm đến chúng không ƯU ĐÃI? Tiết kiệm với phiếu giảm giá của chúng tôi trên WHATSAPP o TELEGRAM!

OpenAI thành lập nhóm xử lý các rủi ro 'thảm khốc' của AI Đó là lý do tại sao nó liên quan đến chúng tôi

OpenAI, công ty đi đầu trong lĩnh vực trí tuệ nhân tạo, mới đây công bố thành lập một nhóm mới với nhiệm vụ cụ thể là đánh giá và giảm thiểu những rủi ro thảm khốc tiềm ẩn liên quan đến việc thúc đẩy các công nghệ liên quan đến AI. Động thái này nhấn mạnh tầm quan trọng ngày càng tăng của việc chủ động giải quyết những thách thức và nguy hiểm mà các mô hình sáng tạo có thể mang lại. Rõ ràng là chúng không được giám sát đúng cách.

Nhận dạng rủi ro bằng OpenAI

Khi trí tuệ nhân tạo phát triển nhanh chóng, những rủi ro mới xuất hiện có thể gây tác động nghiêm trọng trên quy mô toàn cầu. Để làm được điều này, nhóm chuẩn bị OpenAI mới sẽ cống hiến hết mình cho để theo dõi, đánh giá, ForeSee e bảo vệ chống lại những vấn đề tiềm ẩn này. Trong số các rủi ro được xác định là: mối đe dọa hạt nhân, một chủ đề nêu bật tính cấp bách của hành động có trách nhiệm trong lĩnh vực AI.

Ngoài các mối đe dọa hạt nhân, nhóm cũng sẽ tập trung vào các mối nguy hiểm liên quan đến chất gây nghiện. hóa học, sinh học và phóng xạ, cũng như trênhiện tượng tự nhân bản của trí tuệ nhân tạohoặc khả năng của một hệ thống trí tuệ nhân tạo có thể tự tái tạo một cách tự động. Các lĩnh vực trọng tâm khác bao gồm khả năng đánh lừa con người của AI và mối đe dọa tất cả an ninh mạng.

Lợi ích và thách thức của AI tiên tiến

OpenAI nhận ra rằng các mô hình AI tiên tiến, những mô hình vượt qua khả năng của các mô hình tiên tiến nhất hiện có, có tiềm năng mang lại lợi ích cho toàn nhân loại. Và không, trái ngược với những gì bạn nghĩ,Trí tuệ nhân tạo không ở đây để cướp việc làm của chúng ta mà đúng hơn là để tạo ra nó.

Tuy nhiên, với sức mạnh to lớn, cũng đi kèm với trách nhiệm lớn lao. Vì vậy điều cần thiết là phải phát triển chính sách được thông báo về những rủi ro, cho phép bạn đánh giá và giám sát các mô hình AI, để đảm bảo rằng lợi ích lớn hơn những rủi ro liên quan.

openai cung cấp phần thưởng cho việc tìm ra lỗi trong chatgpt

Đọc thêm: DeepMind có giải pháp ngăn ngừa rủi ro AI

Sự lãnh đạo của đội mới này đã được giao cho Alexander Madry, một nhân vật hàng đầu trong lĩnh vực học máy. Hiện tại anh ấy đang nghỉ phép vai trò giám đốc của Trung tâm học máy có thể triển khai của MIT, Khôn ngoan sẽ phối hợp các nỗ lực để phát triển và duy trì chính sách phát triển có tính đến rủi ro.

Hướng tới ưu tiên toàn cầu

Giám đốc điều hành của OpenAI, Sam Altman, nó không mới trước những lo ngại về những rủi ro thảm khốc tiềm ẩn của AI. Ông gợi ý rằng việc xử lý các công nghệ AI nên được áp dụngđược coi trọng như vấn đề vũ khí hạt nhân, nhấn mạnh sự cần thiết phải có nỗ lực tập thể để giảm thiểu rủi ro tuyệt chủng liên quan đến AI. Nhóm mới này thể hiện một bước đi cụ thể hướng tới hiện thực hóa tầm nhìn này, nêu bật cam kết của OpenAI trong việc đóng góp cho sự phát triển quản lý có trách nhiệm về Trí tuệ nhân tạo.

Gianluca Cobucci
Gianluca Cobucci

Đam mê code, ngôn ngữ và ngôn ngữ, giao diện người-máy. Tất cả những gì là sự tiến hóa công nghệ đều được tôi quan tâm. Tôi cố gắng bộc lộ niềm đam mê của mình một cách rõ ràng nhất, dựa vào những nguồn đáng tin cậy chứ không phải “lúc đầu vượt qua”.

Theo dõi
thông báo
khách sạn

0 Bình luận
Phản hồi nội tuyến
Xem tất cả nhận xét
XiaomiToday.it
Logo