Explainable AI – AI Dễ Hiểu – Hiểu AI?
AI đang ngày càng thâm nhập vào đời sống và ảnh hưởng đến mọi mặt của xã hội hiện nay không chỉ trong lĩnh vực công nghệ mà còn ở cả y tế, an ninh, giáo dục, luật pháp,… những ngành nghề ảnh hưởng trực tiếp tới sinh mạng của con người. Vậy câu hỏi đặt ra ở đây là chúng ta có thể tin tưởng AI hay không?
Hiện nay một trong những vấn đề được quan tâm nhiều nhất trong lĩnh vực Trí tuệ nhân tạo chính là làm sao giải thích được những quyết định AI đưa ra, khi mà phần lớn những AI đang được sử dụng tới thời điểm này được xem như là các “black box” – người ta không biết rõ về những gì xảy ra trong đó. Tại sao quyết định được đưa ra là A mà không phải là B? Do đó thay vì mang đến sự an tâm thì AI lại mang tới cho ta sự bất minh và lo lắng.
Explainable AI – tạm dịch là AI có thể giải thích được là chìa khóa để giải đáp thắc mắc này.
Một cách khái quát thì một mô hình được gọi là Explainable AI – XAI, có thể biểu diễn theo lược đồ dưới.
Những lời giải thích đi kèm với quyết định đưa ra sẽ giúp cho AI không còn là một “hộp đen” tối nghĩa nữa.
Tới đây sẽ có vài người lên tiếng: “Tôi có niềm tin tuyệt đối vào AI, tôi không có gì thắc mắc, không cần mớ giải thích này”. Nhưng xin thưa, ngoài việc giúp con người có thêm niềm tin vào các quyết định của AI thì XAI còn giải quyết nhiều vấn đề khác nữa. Từ việc giải thích này con người có thể “tương tác”, học hỏi những điều mới từ chính AI, như trong trận cờ vây nổi tiếng toàn thế giới năm 2016 giữa AlphaGo và Lee Sedol năm 2016 nơi mà nhà vô địch châu Âu Fan Hui đã phải thốt lên: “It’s not a human move. I’ve never seen a human play this move.” (Tạm dịch: Nó không phải nước đi của con người. Tôi chưa bao giờ thấy con người chơi cờ theo cách này.)
Cả nghĩa trắng lẫn nghĩa đen, câu nói này đều hoàn toàn chính xác. Đó là một nước đi của máy, và nước đi này đã đánh bại người gần như là giỏi nhất thế giới thời điểm đó trong lĩnh vực cờ vây. Chúng ta cần phải học nó, AI đã sáng tạo ra một nước đi mà con người có thể mất hàng triệu năm chơi cờ mới có thể nghĩ ra được và tương tự trong các lĩnh vực khác, điều này có thể giúp chúng ta “gian lận” thời gian để phát triển nhanh hơn.
Ngoài ra việc đưa ra lời giải thích này còn giúp cho các kĩ sư và nhà khoa học dữ liệu đánh giá tính chính xác của mô hình một cách dễ dàng hơn, không phải lúc nào một mô hình có khả năng dự đoán tốt là đã học được chính xác điều ta mong muốn. Giống như trường hợp chú ngựa “Clever Hans” đưa ra được đáp án chính xác của phép tính nhờ quan sát động tác của người chủ chứ không phải thực hiện được các phép tính.
Clever Hans
Các mô hình cũng giống như vậy, có thể mô hình đoán được con thuyền chỉ do nước xung quanh và khi không còn nước thì sẽ kết quả là toang.
Thuyền không nước
Thuyền có nước
Ngoài ra hiện tại đây còn là vấn đề pháp lý, khi mà trong Article 22 và Recital 71 của GDPR (Quy định bảo vệ dữ liệu chung châu Âu) đã có những quy định liên quan đến các quyết định của những quy trình xử lý tự động:
Hơn nữa Article 22 còn trao cho các cá nhân quyền yêu cầu giải thích về cách một hệ thống tự động đưa ra quyết định ảnh hưởng đến họ. Ví dụ một cá nhân bị từ chối khi đi vay vốn bởi hệ thống chấm điểm tín dụng tự động có quyền yêu cầu một lời giải thích lý do tại sao anh ta lại bị từ chối; một vấn đề mà những mô hình AI hiện thời chưa giải quyết được.
Không chỉ GDPR có những quy định này mà ở cả Algorithmic Accountability Act 2019 ( Đạo luật trách nhiệm giải trình 2019), California Consumer Privacy Act ( Luật về quyền riêng tư của người tiêu dùng California), Washington Bill 1655 ( Dự luật Washingto), Massachusetts Bill H.2701 ( Dự luật Massachusetts), llinois House Bill 3415 ( Dự luật Illinois) cũng đã có những điều luật liên quan đến sự minh bạch của AI.
Nếu bạn còn chưa thấy rõ sự quan trọng trong các câu chuyện liên qua đến pháp luật của XAI thì hãy đọc qua ví dụ dưới đây.
https://www.nytimes.com/2017/06/13/opinion/how-computers-are-harming-criminal-justice.html
COMPAS
Ở Mỹ người ta bắt đầu sử dụng một hệ thống AI gọi là COMPAS để đánh giá độ nguy hiểm, hay nguy cơ tái phạm tội của tù nhân và như hình trên thì ta có thể thấy một sự phân biệt đáng sợ về màu da vượt lên trên cả những dữ liệu về tiền án, tiền sự.
XAI sẽ là một cứu cánh thực sự cho các trường hợp phân biệt sắc tộc, giới tính như trên.
Vậy XAI sẽ đưa ra những lời giải thích như thế nào cho mô hình? Làm thế nào để đánh giá mức độ phù hợp, chính xác của lời giải thích? Có cách phương pháp nào để giải thích mô hình?
Xin hẹn các bạn ở bài viết tiếp sau.
Leave a Reply