Bạn có sẵn sàng trả giá cho sự miễn phí khi sử dụng AI?
DeepSeek gấp rút ra mắt mô hình R2 Trào lưu tạo hình ảnh bằng Chat GPT gây sốt, nhưng người dùng cần thận trọng |
Những bê bối bảo mật
Tháng 9/2023, nam diễn viên Ấn Độ Anil Kapoor kiện công ty Simply Life India vì sử dụng trái phép hình ảnh và giọng nói của ông để tạo deepfake, bao gồm cả nội dung khiêu dâm. Tòa án đã ra lệnh cấm 16 bị đơn tiếp tục khai thác thông tin của ông vào mục đích thương mại.
Tháng 11/2023, Scarlett Johansson khởi kiện ứng dụng Lisa AI vì sử dụng hình ảnh và giọng nói của cô trong một quảng cáo trên nền tảng X mà không có sự cho phép. Phía nhà phát triển Convert Software đã gỡ quảng cáo nhưng không đưa ra bình luận chính thức.
Nỗi lo lắng về khuôn mặt, giọng nói của mình bỗng nhiên xuất hiện trong một khung cảnh xa lạ và bị lợi dụng cho mục đích xấu giờ đây đã hiển lộ rõ ràng hơn bao giờ hết.
![]() |
Chuyên gia Nguyễn Gia Hy (vị trí giữa) trên giảng đường. Ảnh: NVCC. |
Phóng viên Báo Lao động Thủ đô đã có cuộc trò chuyện với chuyên gia Nguyễn Gia Hy, Giảng viên về Trí tuệ nhân tạo tại Đại học Swinburne (Australia), nghiên cứu sinh về Trí tuệ nhân tạo tại Đại học Deakin (Australia) và là nhà sáng lập SkillPixel (một dự án giáo dục phi lợi nhuận về Trí tuệ nhân tạo) về chủ đề này.
Cái giá của sự “miễn phí”
Khi đăng ký sử dụng miễn phí một phần mềm trí tuệ nhân tạo, bạn có bao giờ tự hỏi: “Những dữ liệu về mình được lưu trữ ở đâu và trong bao lâu?” Hầu như người dùng đều mù mờ về vấn đề này, và ít ai thực sự quan tâm cho tới khi họ nhận thấy quyền và lợi ích của mình bị xâm phạm trực tiếp, như trường hợp của Scarlett Johansson hay Anil Kapoor nêu trên.
Chuyên gia Nguyễn Gia Hy cho hay: “Khi người dùng đưa ảnh hoặc thông tin cá nhân vào các công cụ AI, dữ liệu đó thường được lưu trữ trên các máy chủ riêng của các công ty công nghệ. Thời gian lưu giữ của mỗi bên rất khác nhau, nhưng các nền tảng đều không nói rõ.
![]() |
Khi bạn sử dụng các phần mềm trí tuệ nhân tạo miễn phí, cái giá phải trả là dữ liệu người dùng. Ảnh do Chat GPT tạo. |
Ví dụ, với OpenAI, dữ liệu có thể được lưu tới 30 ngày nếu bạn dùng API (Application Programming Interface: Giao diện lập trình ứng dụng cho phép các ứng dụng hoặc dịch vụ tương tác với nhau), nhưng nếu bạn dùng tài khoản cá nhân, họ có thể giữ đến “chừng nào còn cần thiết”, một cụm từ mơ hồ nhưng lại rất phổ biến trong các chính sách quyền riêng tư. Midjourney (phần mềm trí tuệ nhân tạo tạo ảnh) cũng nói tương tự, và một số nền tảng thậm chí không nói gì cả.”
Khi sử dụng các phần mềm trí tuệ nhân tạo, một số chatbot có ghi “dữ liệu người dùng có thể được dùng để cải thiện hệ thống”. Theo ông Nguyễn Gia Hy, câu nói ấy tưởng chừng như vô hại, “nhưng thực chất là một cách nói giảm nói tránh cho một hành vi có thể xâm phạm quyền riêng tư nếu người dùng không được thông báo rõ ràng và không có quyền lựa chọn thực sự”.
Về mặt pháp lý, nếu không có sự đồng ý rõ ràng và tự nguyện của người dùng, hoặc các công ty công nghệ cố tình dùng ngôn ngữ mơ hồ trong chính sách, thì điều này có thể vi phạm các nguyên tắc cốt lõi của luật bảo vệ dữ liệu như GDPR (Luật Bảo vệ dữ liệu của Liên minh Châu Âu), đặc biệt là các nguyên tắc về giới hạn mục đích và tối thiểu hóa dữ liệu.
Trên thực tế, nhiều nền tảng tự động bật tính năng thu thập dữ liệu và giấu kỹ tùy chọn tắt - khiến người dùng "đồng ý" mà không hay biết. Như vậy, cái giá bạn phải trả cho việc sử dụng miễn phí các phần mềm trí tuệ nhân tạo chính là dữ liệu cá nhân của bạn. Điều này có ý nghĩa gì? Không chỉ dừng lại ở việc cải thiện chất lượng cho mô hình, các công ty còn thu thập dữ liệu để phân tích hành vi người dùng, xây dựng hồ sơ dữ liệu và trong một số trường hợp, có thể bán cho bên thứ ba.
“Dữ liệu là tài nguyên đắt giá nhất trong thời đại AI hiện nay. Vậy nên có rất nhiều bên sẵn sàng trả nhiều tiền để mua được dữ liệu tốt phục vụ cho việc phát triển, huấn luyện mô hình AI của họ. Và khả năng xảy ra trường hợp thông tin cá nhân của bạn xuất hiện trong nội dung do người khác tạo ra là có - dù rất hiếm, bởi vì AI có khả năng học tập và ghi nhớ dữ liệu, dẫn tới tình huống nội dung của bạn có thể vô tình bị lộ trong sản phẩm của người khác” - chuyên gia Nguyễn Gia Hy chia sẻ.
Trách nhiệm của các công ty công nghệ
Khi dữ liệu cá nhân bị lợi dụng, người dùng có thể khiếu nại và yêu cầu các công ty AI chịu trách nhiệm. Tuy nhiên, các công ty công nghệ có bị buộc phải chịu trách nhiệm pháp lý hay không? Đây là một câu hỏi lớn, và cũng là thách thức lớn nhất mà luật pháp hiện nay đang phải đối mặt.
“Ở Mỹ, nhiều công ty AI đang dựa vào Mục 230 của Đạo luật truyền thông có nội dung bảo vệ các nền tảng Internet khỏi trách nhiệm đối với nội dung của người dùng tạo ra. Nhưng với AI, nội dung không chỉ do người dùng tạo, mà do AI đồng sáng tạo. Điều này mở ra khả năng: Các công ty AI có thể bị xem là đồng tác giả, và nếu nội dung đó gây hại, chắc chắn họ không còn đứng ngoài cuộc” - chuyên gia Nguyễn Gia Hy nói.
![]() |
Các công ty công nghệ phải có trách nhiệm và đạo đức khi các phần mềm trí tuệ nhân tạo sử dụng dữ liệu người dùng. |
Dù có những vụ kiện của người nổi tiếng như Scarlett Johansson hay Anil Kapoor, nhưng phần lớn người dùng bình thường vẫn khó đòi quyền lợi. Luật pháp hiện nay chưa theo kịp tốc độ phát triển của AI, khiến ranh giới trách nhiệm giữa người dùng và nhà cung cấp công nghệ còn rất mờ.
Về lý thuyết, người dùng có quyền yêu cầu xóa dữ liệu cá nhân theo Luật GDPR của Liên minh châu Âu hay CCPA của bang California. Các nền tảng lớn như OpenAI, Midjourney hay Stability AI đều công nhận quyền này và cung cấp các biểu mẫu, email hoặc cài đặt để người dùng xóa dữ liệu. Tuy nhiên, thực tế không đơn giản như vậy.
“Một khi dữ liệu đã được dùng để huấn luyện mô hình AI, thì việc "xóa khỏi hệ thống" không giống như xóa một file khỏi máy tính. Dấu vết dữ liệu đã hòa vào hàng tỉ tham số, muốn xóa hoàn toàn thì gần như phải huấn luyện lại mô hình từ đầu. Việc này rất tốn kém, có thể lên đến cả triệu đô mỗi lần huấn luyện, nên chắc chắn họ không thể cứ huấn luyện lại mô hình mỗi khi có người dùng yêu cầu xóa dữ liệu.
Ngoài ra, dữ liệu cũng có thể còn tồn tại trong bản sao lưu (backup) hoặc dưới dạng dữ liệu đã ẩn danh hóa, vốn không bị ràng buộc bởi luật xóa dữ liệu nữa. Chính vì thế, thay vì chỉ nghĩ đến “xóa sau”, người dùng cần học cách bảo vệ dữ liệu từ đầu - hiểu rõ mình đang chia sẻ gì, với ai, và vì mục đích gì” – chuyên gia Nguyễn Gia Hy chia sẻ thêm.
Khi mọi thứ chưa rõ ràng, chúng ta phải tự bảo vệ mình
Rõ ràng là các nền tảng trí tuệ nhân tạo không chỉ có trách nhiệm, mà còn phải có nghĩa vụ pháp lý và đạo đức trong việc kiểm duyệt và ngăn chặn các nội dung vi phạm quyền riêng tư. Thế nhưng, đa số vẫn thiếu công cụ kỹ thuật để phát hiện và ngăn chặn dữ liệu cá nhân bị sử dụng trái phép. Hiện nay, phần lớn các vi phạm chỉ được xử lý sau khi người dùng phát hiện và báo cáo - một cơ chế bị động và đầy rủi ro.
Vậy nên người dùng cần biết cách bảo vệ chính mình. Chuyên gia Nguyễn Gia Hy chia sẻ một số phương pháp để giảm thiểu rủi ro khi cung cấp thông tin cá nhân cho các nền tảng AI: Trước khi chia sẻ bất kỳ thông tin cá nhân nào với các nền tảng, người dùng cần hiểu rằng dữ liệu của mình có thể trở thành nguyên liệu huấn luyện cho các mô hình, và một khi đã huấn luyện thì sẽ không có cách nào để xóa đi hoàn toàn cả.
Hãy đọc kỹ chính sách quyền riêng tư và điều khoản dịch vụ: Dữ liệu được lưu ở đâu, trong bao lâu, có dùng để huấn luyện AI không, và bạn có thể xóa hay rút lại thông tin đã cung cấp hay không. Ưu tiên sử dụng các nền tảng cho phép từ chối việc dùng dữ liệu để huấn luyện hoặc cung cấp tuỳ chọn “zero data retention” (dữ liệu sẽ bị xóa ngay khi không còn cần thiết nữa thay vì lưu lại để sử dụng trong tương lai).
Ngoài ra, hãy áp dụng nguyên tắc tối thiểu hóa dữ liệu: Chỉ cung cấp những gì thực sự cần thiết và tránh chia sẻ thông tin nhạy cảm như ảnh chân dung rõ mặt, số điện thoại, địa chỉ hay chi tiết định danh. Một số nền tảng miễn phí có thể xem dữ liệu của bạn là “chi phí” để sử dụng hệ thống của họ.
Trí tuệ nhân tạo đang mở ra một kỷ nguyên mới, nơi những điều tưởng như chỉ có trong khoa học viễn tưởng nay đã len lỏi vào đời sống thường nhật. Nhưng càng tiến xa trong hành trình ấy, chúng ta càng phải đặt ra câu hỏi: Liệu sự tiện lợi có đáng đổi lấy quyền riêng tư? Khi luật pháp còn chạy sau công nghệ, người dùng không thể chỉ trông chờ vào sự minh bạch từ các “ông lớn”, mà cần tự trang bị kiến thức và tư duy phản biện để kiểm soát chính dữ liệu của mình. AI có thể là cánh cửa dẫn đến tương lai - nhưng bước qua đó, bạn có chắc mình vẫn là người nắm giữ chìa khóa?
Có thể bạn quan tâm
Nên xem

LĐLĐ huyện Đan Phượng phát động Tháng Công nhân năm 2025

Phá đường sản xuất thực phẩm chức năng giả, thu giữ lô hàng gần 100 tấn

Tăng cường đảm bảo an ninh hàng không dịp nghỉ Lễ 30/4-1/5

Jackson lập công, Chelsea trở lại top 4 đầy kịch tính

Giá xăng dầu hôm nay (27/4): Dầu thế giới tăng nhẹ

Ipswich gục ngã trước Newcastle, khép lại giấc mơ Premier League

Google AI Overviews chạm mốc 1,5 tỷ người dùng mỗi tháng
Tin khác

Google AI Overviews chạm mốc 1,5 tỷ người dùng mỗi tháng
Công nghệ 27/04/2025 08:02

Mua sắm trực tuyến trên ChatGPT: Bước tiến mới của thương mại điện tử?
Công nghệ 27/04/2025 06:37

Google cảnh báo khẩn: Lừa đảo tinh vi nhắm đến người dùng gmail
Công nghệ 25/04/2025 15:10

ChatGPT bổ sung tính năng xác định vị trí từ hình ảnh: Bước tiến mới hay mối lo về quyền riêng tư?
Công nghệ 24/04/2025 10:08

DolphinGemma - AI đầu tiên giúp con người “hiểu” được tiếng cá heo
Công nghệ 23/04/2025 15:29

Google ra mắt công cụ AI tạo video từ văn bản và hình ảnh
Công nghệ 20/04/2025 09:52

Trải nghiệm giấc ngủ tương lai với công nghệ cảm biến cá nhân hóa
Công nghệ 14/04/2025 08:59

Tin tức của Báo Nhân Dân chính thức xuất hiện trên ứng dụng VNeID
Công nghệ 09/04/2025 17:25

Máy in phun khô đầu tiên trên thế giới: Bước đột phá trong công nghệ in siêu nhỏ
Công nghệ 09/04/2025 10:59

Lượt tải ứng dụng ChatGPT vượt mốc 150 triệu: Cơn sốt tính năng "Images in ChatGPT"
Công nghệ 02/04/2025 20:16