Ai sẽ chịu trách nhiệm khi robot tự đưa ra quyết định?

© AFP 2023 / Fabrice CoffriniRobot Sophia
Robot Sophia - Sputnik Việt Nam
Đăng ký
Trong bối cảnh người máy robot và các hình thức khác của trí tuệ nhân tạo có khả năng tự đưa ra quyết định nảy ra câu hỏi về những hậu quả về đạo đức và trách nhiệm về các hành động của chúng.

Sputnik Mundo yêu cầu chuyên gia về kỹ thuật robot từ Argentina ông Gonzalo Zabala,  bình luận về nội dung này. Ai sẽ chịu trách nhiệm về những hành vi sai trái của robot, và hoạt động của các robot  ảnh hưởng như thế nào đến cuộc sống của những người dân thường.

Роборт-гуманоид - Sputnik Việt Nam
Robot phát minh ngôn ngữ riêng: Lý do làm Facebook e ngại trí tuệ nhân tạo?

"Nếu người máy có khả năng tự đưa ra quyết định, các hành động này sẽ được đánh giá như thế nào từ quan điểm đạo đức? Ai sẽ chịu trách nhiệm về những quyết định sai trái mà người máy tự đưa ra? Các nhà khoa học đang tích cực nghiên cứu vấn đề này. Có cả nhóm luật sư phân tích những khía cạnh của vấn đề mới này ", — ông Gonzalo Zabala, chuyên gia về người máy từ Argentina, cho biết.

Hiện nay, các công ty phải chịu trách nhiệm. Nhưng, trí tuệ nhân tạo thường xuyên gia tăng khả năng của mình tự đưa ra quyết định, vì thế rõ ràng là trong pháp luật đã xuất hiện một khoảng trống.

Robot có thể học tập thông qua các thuật toán và dữ liệu có sẵn trên Internet, trên cơ sở đó robot sẽ có khả năng tự đưa ra quyết định dựa trên những kinh nghiệm của nó.

Robot - Sputnik Việt Nam
Kế hoạch sinh vật cơ khí hóa: mối đe dọa hay cơ hội?
Theo chuyên gia Zabala, khi tìm kiếm giải pháp cho vấn đề này, cần phải tính đến sự phức tạp của trí tuệ con người, bởi vì có nhiều loại tri thức và cơ chế nội bộ trong tâm trí con người.

"Khi phát triển những hệ thống hoặc máy thông minh, chúng ta suy nghĩ về trí thông minh của con người, ví dụ như khả năng học tập. Nhiệm vụ này là rất hữu ích vì nó khiến chúng ta suy nghĩ về bản thân mình", — ông Zabala giải thích thêm.

Trí tuệ con người là "một hệ thống phức tạp", kiến ​​trúc của nó khác hẳn với kiến ​​trúc của máy tính. Nó hoạt động không phải với bit mà với hóa chất, không phải bằng kỹ thuật số mà bằng các hệ thống phi số (hay kỹ thuật tương tự analog). Khác biệt này tạo ra những tình huống "ngẫu nhiên" có thể được mô phỏng, nhưng không thể đạt được.

Theo chuyên gia Zabala, nguy cơ của trí tuệ nhân tạo được xác định bởi quy mô và phạm vi sử dụng nó.

"Trí thông minh nhân tạo và những công nghệ khác có thể tác động nghiêm trọng nhất đến nhân loại trong lĩnh vực công việc", — ông Zabala nói.

Robot - Sputnik Việt Nam
Trí tuệ nhân tạo của Nga có thêm khả năng chú ý và nhớ
Theo như dự kiến, đến năm 2050 các loại kỹ thuật robot sẽ thực hiện hơn 90% công việc tại các nhà máy. Mặc dù trên thực tế robot cắt giảm hàng triệu việc làm, đồng thời đã xuất hiện những chỗ làm việc mới. Ngoài ra, các chỗ làm việc mới đòi hỏi trình độ cao hơn, robot giúp con người thực hiện những công việc mà trước đây không thể thực hiện được. Tất cả điều này làm thay đổi khái niệm về công việc, chuyên gia khẳng định.

Tuy nhiên, theo ý kiến ​​của ông Zabala, khó có thể dự đoán về một kịch bản tiêu cực nhất dẫn đến sự hình thành của một xã hội mà trong đó khái niệm về công việc sẽ biến mất.

"Các công nghệ tiên tiến đang được sử dụng không chỉ trong các tầng lớp thượng lưu của các nước "Thế giới thứ nhất". Trên khắp thế giới người dân không làm việc như họ đã làm 50 hoặc 100 năm trước đây", — chuyên gia cho biết.

Ông Zabala không coi robot là mối đe dọa đối với nhân loại. Ngược lại, chính "sự điên rồ của con người" trong xã hội tiêu dùng là mối đe dọa trong ngắn hạn.

"Chủ đề trí tuệ nhân tạo là một nội dung hấp dẫn trên các phương tiện truyền thông, còn vấn đề các nguồn tài nguyên bị đẩy xuống hàng thứ yếu. Tôi rất lo lắng về lập trường của Hoa Kỳ trong vấn đề Hiệp định khí hậu Paris. Và ngay cả ở các nước ủng hộ hiệp định này, mức sản xuất hàng tiêu dùng cũng rất cao", — ông Zabala kết luận.

Tin thời sự
0
Để tham gia thảo luận
hãy kích hoạt hoặc đăng ký
loader
Phòng chat
Заголовок открываемого материала