27/05/2024
27/05/2024
27/05/2024
Giống như bất kỳ công nghệ nào, trí tuệ nhân tạo tiềm ẩn những rủi ro, thách thức và thành kiến nhất định. Những rủi ro này cần được quản lý phù hợp để đảm bảo lợi ích mang lại lớn hơn những tác hại. Nhiều người ủng hộ AI tin rằng vấn đề không nằm ở bản thân công nghệ mà là cách nó được sử dụng. Họ kỳ vọng rằng các biện pháp quản lý sẽ giúp giải quyết được rủi ro liên quan đến AI. Những thành kiến trong nhận thức con người có khả năng xâm nhập một cách vô tình vào thuật toán học máy (Machine learning). Các nhà phát triển vô tình đưa vào mô hình hoặc thông qua tập dữ liệu đào tạo có chứa thành kiến. Trong đào tạo thuật toán liên quan đến nhiệm vụ về nhân sự, nếu dữ liệu bị sai lệch so với nhân khẩu học cụ thể, thuật toán đó có thể vô tình phân biệt đối xử với các nhóm người nào đó khi đưa ra quyết định tuyển dụng. Mặc dù tự động hóa AI góp phần đơn giản hóa nhiều nhiệm vụ nhưng nó cũng có khả năng tạo ra làn sóng sa thải lớn đối với những công việc đơn giản, lặp đi lặp lại. Điều này đặt ra những thách thức mới cho lực lượng lao động. Theo báo cáo của Viện Nghiên cứu Toàn cầu McKinsey, đến năm 2030, các hoạt động chiếm 30% số giờ làm việc hiện nay trong nền kinh tế Mỹ có khả năng được tự động hóa do xu hướng ứng dụng AI. Việc AI thay thế con người có rủi ro gây ra những hậu quả khó lường. Chẳng hạn, Microsoft gần đây đã phải đối mặt với nhiều phản ứng dữ dội khi CNN, The Guardian và các cơ quan truyền thông, báo chí khác phát hiện ra sự thiên vị, tin tức giả mạo và những cuộc thăm dò mang tính xúc phạm được thực hiện trên cổng thông tin MSN (cung cấp bởi Microsoft). Microsoft cho rằng những trục trặc này bắt nguồn từ AI sau khi công ty quyết định thay thế nhiều biên tập viên con người bằng trí tuệ nhân tạo. Hầu như không thể khiến công nghệ AI chịu trách nhiệm về hành vi của mình vì chúng thường rất phức tạp. Mặc dù AI đã giải thích nhằm mục đích cung cấp thông tin chi tiết về quá trình ra quyết định của mô hình học máy hoặc học sâu (deep learning), nhưng sự thiếu minh bạch từ bên trong hệ thống khiến những lý do đưa ra trở nên khó hiểu hơn. Khi AI ngày càng tự chủ và ít phụ thuộc vào con người, nguy cơ con người mất quyền kiểm soát những hệ thống này ngày càng cao. Điều đó dẫn đến những hậu quả không thể lường trước, gây hại đến cuộc sống. Trong khi đó, lại không ai có trách nhiệm giải trình. Nếu kỹ thuật và thuật toán AI được sử dụng cho mục đích truyền bá thông tin sai lệch, nó có thể gây ảnh hưởng đến dư luận và hành vi, cũng như việc ra quyết định của mọi người. Sử dụng trí tuệ nhân tạo nhằm phân tích dữ liệu về hành vi, sở thích và mối quan hệ của một người. Thông qua đó, tạo ra các quảng cáo với mục tiêu thao túng cảm xúc và lựa chọn của họ. Một công nghệ khác là deepfake, bao gồm thuật toán AI được sử dụng để tạo ra nội dung hình ảnh, âm thanh hoặc video giả trông giống như thật, cũng được sử dụng để truyền bá thông tin sai lệch hoặc thao túng tâm lý con người. Các doanh nghiệp có rủi ro phải đối mặt với sự chỉ trích vì thúc đẩy thao túng xã hội thông qua AI. TikTok - một nền tảng truyền thông xã hội sử dụng thuật toán AI - thu thập dữ liệu người dùng dựa trên lịch sử tương tác và lặp lại những video có nội dung tương tự. Ứng dụng này đã bị chỉ trích vì chưa loại bỏ được nội dung độc hại, sai lệch thông tin. Ngoài ra, trong chiến dịch bầu cử năm 2023, Meta đã sửa đổi chính sách của mình, buộc công cụ quảng cáo phải hạn chế sử dụng AI tạo sinh cho các chiến dịch liên quan đến bầu cử, chính trị và những vấn đề xã hội. Hành động này được kỳ vọng sẽ ngăn chặn sự thao túng xã hội thông qua AI vì lợi ích chính trị. Vào tháng 3 năm 2023, một trục trặc trong ChatGPT đã cho phép một số người dùng truy cập vào tiêu đề trong lịch sử trò chuyện của những người dùng khác. Vì hệ thống AI này hoạt động dựa trên khối lượng dữ liệu cá nhân khổng lồ nên nó gây ra mối lo ngại về bảo mật và quyền riêng tư cho người dùng. AI cũng được sử dụng trong giám sát, bao gồm: Nhận dạng khuôn mặt, theo dõi nơi ở và hoạt động của con người, giám sát liên lạc,... Tất cả đều có thể dẫn đến những hành vi xâm phạm quyền riêng tư và quyền tự do dân sự. Trên thực tế, người ta dự đoán rằng hệ thống tín nhiệm xã hội của Trung Quốc sẽ được thúc đẩy mạnh mẽ bởi dữ liệu thu thập thông qua AI. Hệ thống này phân bổ điểm cá nhân cho mỗi người trong số 1,4 tỷ công dân, giám sát những hành vi và hoạt động của họ như lái xe ẩu, hút thuốc ở khu vực cấm và số lượng thuốc lá,… Một số tiểu bang của Hoa Kỳ đã có luật bảo vệ thông tin cá nhân. Tuy nhiên, không có luật liên bang cụ thể nào bảo vệ công dân khỏi tác hại mà AI gây ra đối với quyền riêng tư dữ liệu. Với sự tinh vi ngày càng tăng của công nghệ AI, rủi ro bảo mật và khả năng bị lạm dụng cũng rất dễ tăng lên. Tin tặc và tác nhân độc hại có thể lạm dụng AI để thực hiện tấn công mạng, vượt qua giao thức bảo mật và khai thác các lỗ hổng hệ thống.AI nên sử dụng để tăng cường trí thông minh của con người thay vì thay thế hoàn toàn con người. Sự phụ thuộc ngày càng tăng vào AI sẽ làm giảm khả năng tư duy phản biện, khi con người lạm dụng AI để đưa ra quyết định, giải quyết vấn đề và thu thập thông tin. Dựa dẫm quá nhiều vào trí tuệ nhân tạo dẫn đến sự thiếu hiểu biết về các hệ thống và quy trình phức tạp. Sự phụ thuộc vào AI mà không có đủ sự tham gia và hiểu biết sâu sắc của con người sẽ dẫn đến những sai lầm và thành kiến không được phát hiện, giải quyết ngay lập tức. Nhiều người cũng lo ngại rằng, khi AI thay thế khả năng phán đoán và sự đồng cảm của con người trong việc ra quyết định, xã hội sẽ ngày càng trở nên vô cảm hơn. Chính vì vậy, những tranh luận xung quanh việc lợi ích và tác hại của AI - trí tuệ nhân tạo vẫn luôn là một trong những chủ đề nóng chưa tìm được câu trả lời.
Nếu bạn muốn hỏi bài tập
Các câu hỏi của bạn luôn được giải đáp dưới 10 phút
CÂU HỎI LIÊN QUAN
Top thành viên trả lời