ChatGPT và rủi ro từ thông tin giả
Tác giả bài viết đã vô cùng ngạc nhiên vì sự hoạt ngôn của ChatGPT nhưng cũng hết sức ngơ ngác về trình độ tạo dựng và cung cấp thông tin sai lệch, bịa đặt của chính ứng dụng này.
Cơn sốt ChatGPT
“Trải nghiệm ChatGPT chưa?” là câu hỏi mà chúng tôi được nghe nhiều nhất trong thời gian qua. Chỉ trong một thời gian rất ngắn, ChatGPT đã chính thức trở thành một cơn sốt mang tính toàn cầu.
Vốn là một trong những sản phẩm công nghệ tiên tiến của Open AI – một tổ chức nghiên cứu và phát triển trí tuệ nhân tạo hàng đầu thế giới, ChatGPT được phát triển dựa trên công nghệ xử lý ngôn ngữ tự nhiên – một mô hình học sâu (deep learning) với khả năng học và tự động tạo ra văn bản, dựa trên một lượng dữ liệu đầu vào khổng lồ.
ChatGPT đã gây ấn tượng mạnh mẽ đến kinh ngạc vì có khả năng hiểu, diễn giải, phân tích ngôn ngữ của con người để đưa ra những câu trả lời với ngôn ngữ tự nhiên, nhanh chóng và “có vẻ chính xác”.
Rất nhiều người dùng đã có thêm một trợ lý ảo có vẻ “biết tuốt”, hỏi gì cũng có thể trả lời một cách mượt mà và nhanh chóng. Đôi khi là những câu trả lời mang tính khôi hài, đôi khi rất thuyết phục và luôn luôn rành mạch, trôi chảy.
ChatGPT dần trở thành quen thuộc trong nhiều hoạt động của con người, từ giáo dục, báo chí, tiếp thị, xuất bản, lập trình,… Xưa kia, không biết thì tra Google, ngày nay cứ hễ không biết ta tìm đến ChatGPT. Nhưng…
Đầu mối thông tin giả
Tác giả bài viết đã vô cùng ngạc nhiên vì sự hoạt ngôn của ChatGPT nhưng cũng hết sức ngơ ngác về trình độ tạo dựng và cung cấp thông tin sai lệch, bịa đặt của chính ứng dụng này. Điển hình như, ChatGPT đã liệt kê ra một danh sách doanh nghiệp vỡ nợ trái phiếu tại Việt Nam và Trung Quốc với đầy đủ tên gọi, số tiền vỡ nợ, thời gian. Thế nhưng tất cả thông tin về vỡ nợ đều không có thật ngoại trừ danh tính của tên doanh nghiệp là thật.
Trường hợp người dùng là cá nhân thì cần cẩn trọng trong việc tiếp nhận các thông tin từ ChatGPT, đưa ra nhiều kiểu câu hỏi khác nhau, kiểm chứng và xác minh các thông tin do chatbot này cung cấp trước khi chia sẻ, sử dụng để tránh các hậu quả pháp lý không đáng có.
Vì muốn kiểm chứng, chúng tôi đã yêu cầu nó cung cấp thêm nguồn thông tin và đường link (nếu có). Ngay lập tức, ChatGPT đã đưa ra một loạt đường link mà do chính nó tạo dựng nhưng hoàn toàn không có thật.
Thông qua trải nghiệm cá nhân, nhóm tác giả nhận thấy xác suất xuất hiện những thông tin sai lệch là không nhỏ trong các câu trả lời. Điều đó tạo nên một mối nguy hiểm rất lớn nếu như người dùng không hoặc không có khả năng kiểm chứng thông tin.
Đồng thời, các thông tin sai sự thật do ChatGPT cung cấp cũng có thể xâm phạm đến quyền và lợi ích hợp pháp của tổ chức, cá nhân khác. Việc nó đưa thông tin thất thiệt về các doanh nghiệp có thật vỡ nợ là một ví dụ. Nguy hiểm hơn cả là khi người dùng tin tưởng rồi phát tán những thông tin này. Bởi lẽ, theo Janet Haven (Giám đốc điều hành tổ chức Data & Society), người dùng sẽ luôn sử dụng công nghệ theo cách mà người tạo ra chúng có thể hoàn toàn không có ý định đó.
Sự mơ hồ về trách nhiệm pháp lý
Như đã phân tích ở trên, việc ứng dụng ChatGPT nói riêng và các chatbot nói chung vào đời sống đem lại nhiều lợi và hại, được và mất. Tuy nhiên, tính hai mặt của trợ lý ảo này đang đem đến nhiều lo ngại hơn khi các quy định về trách nhiệm pháp lý của các bên liên quan còn khá mơ hồ.
Theo Điều khoản dịch vụ cung cấp bởi Open AI, người dùng được cho là phải chịu trách nhiệm về toàn bộ nội dung đầu vào và được Open AI chuyển nhượng tất cả các quyền, tư cách cũng như lợi ích có được từ việc khai thác đầu ra khi sử dụng ChatGPT.
Open AI dĩ nhiên cũng tuyên bố loại trừ trách nhiệm trong trường hợp người dùng sử dụng thông tin đầu ra được cung cấp và gây ra các thiệt hại trực tiếp, gián tiếp hoặc ngẫu nhiên. Các tuyên bố miễn trừ trách nhiệm và thỏa thuận tương tự như vậy cũng xuất hiện ở Google, Twitter, Facebook và các nền tảng khác.
Điều đó có nghĩa là việc nội dung được cung cấp có bất hợp pháp hay không còn tùy thuộc vào việc người dùng hiểu, áp dụng nó vào mục đích và tình huống nào. Chúng tôi tin rằng các tuyên bố miễn trừ của Open AI là hợp lý ở một mức độ nào đó, tuy nhiên người dùng có thể kiểm soát nội dung đầu ra đến mức nào vẫn chưa được Open AI giải trình cụ thể, đồng thời cũng chưa có căn cứ nào để bảo đảm phiên bản thử nghiệm hiện tại của ChatGPT trung lập như Open AI đã khẳng định.
Tại Mỹ, nơi ChatGPT ra đời, điều 230 Đạo luật về Chuẩn mực Truyền thông (Communications Decency Act) được ban hành năm 1996 là cơ sở pháp lý quan trọng để bảo vệ công ty công nghệ hay nền tảng mạng xã hội như Twitter, Facebook, YouTube, Google…, và tiếp theo đây là ChatGPT của Open AI khỏi các vụ kiện về nội dung.
Ra đời như một giải pháp cho ngành công nghiệp Internet non trẻ ở thời điểm đó, điều 230 nói trên đã giải phóng các công ty công nghệ khỏi trách nhiệm pháp lý với các thông tin được đăng tải bởi người dùng, miễn là các trang web, nền tảng có thể kịp thời xóa bỏ các nội dung sai lệch hoặc phản cảm. Mặc dù thực tiễn xét xử đã nhiều lần bác bỏ đa số nội dung trong đạo luật này vì vi phạm quy định của hiến pháp về quyền tự do ngôn luận, riêng điều 230 vẫn tồn tại.
Theo ý kiến của Giáo sư Xuan Thao – Nguyen (Giám đốc Trung tâm Nghiên cứu luật châu Á, trường Đại học Luật, Đại học Washington (Mỹ), tranh luận về trách nhiệm pháp lý của các công ty công nghệ đối với nội dung độc hại xuất hiện trên các nền tảng vẫn luôn là vấn đề nóng tại Mỹ.
Ngược lại, tại Trung Quốc những năm gần đây các nhà cung cấp dịch vụ lại thường bị buộc phải chịu trách nhiệm pháp lý đối với nội dung được đề xuất trên nền tảng. Điều đó cho thấy một nghĩa vụ cao hơn và trách nhiệm lớn hơn trong thực hiện các biện pháp hiệu quả để ngăn chặn nội dung vi phạm.
Ví dụ, vào tháng 9-2017, Văn phòng Thông tin Quốc vụ viện Trung Quốc (SCIO) tuyên bố rằng các nền tảng xã hội do ba ông lớn Tencent, Baidu và Alibaba đã bị phạt vì đăng tin tức sai sự thật, dung túng cho các nội dung khiêu dâm và nội dung thông tin bị cấm khác. Cụ thể, Baidu Tieba, một trang web do gã khổng lồ công cụ tìm kiếm Baidu điều hành và Weibo, một phần thuộc sở hữu của Alibaba, bị phạt vì không ngăn chặn người dùng lan truyền tin tức sai lệch.
Tại Việt Nam, việc xử lý hành vi phát tán tin giả được quy định tại Nghị định 15/2020/NĐ-CP. Theo đó, ngoài cá nhân phát tán tin giả, tổ chức, doanh nghiệp thiết lập mạng xã hội còn có thể bị phạt tiền từ 50 triệu đồng đến 70 triệu đồng khi chủ động lưu trữ, truyền đưa thông tin giả mạo, thông tin sai sự thật, vu khống, xuyên tạc… cũng như không thực hiện việc ngăn chặn, loại bỏ thông tin vi phạm theo quy định pháp luật. Tuy nhiên thực tế cho thấy chủ thể thường xuyên bị xử phạt về hành vi phát tán thông tin sai sự thật là cá nhân, số vụ việc có xác định trách nhiệm của nền tảng thì không đáng kể.
Riêng đối với chế tài hình sự, các loại tội phạm liên quan đến hành vi nói trên, ví dụ như điều 117 về tội làm, tàng trữ, phát tán hoặc tuyên truyền thông tin, tài liệu, vật phẩm nhằm chống Nhà nước Cộng hòa xã hội chủ nghĩa Việt Nam, điều 155 về tội làm nhục người khác… đều chỉ áp dụng cho người phạm tội là cá nhân, không áp dụng cho pháp nhân thương mại.
Người dùng cần tỉnh táo
Dù mạnh mẽ và tinh vi đến như thế nào, ChatGPT vẫn là một công cụ còn đang được hoàn thiện. Trên trang chủ của mình, Open AI cũng khẳng định về việc không đưa ra bất kỳ đảm bảo nào cho các dịch vụ đang được cung cấp bởi phiên bản Beta ở thời điểm hiện tại.
Do đó, các tổ chức nên tự phát triển hoặc sử dụng các hệ thống, bộ lọc của bên thứ ba để kịp thời phát hiện, gắn cờ và ngăn chặn những nội dung đầu vào và đầu ra có khả năng sai lệch, gây nhầm lẫn, bất hợp pháp… Bởi lẽ, trách nhiệm pháp lý phát sinh từ việc sử dụng các thông tin do ChatGPT cung cấp suy cho cùng vẫn được quy về cho người dùng.
Trường hợp người dùng là cá nhân thì cần cẩn trọng trong việc tiếp nhận các thông tin từ ChatGPT, đưa ra nhiều kiểu câu hỏi khác nhau, kiểm chứng và xác minh các thông tin do chatbot này cung cấp trước khi chia sẻ, sử dụng để tránh các hậu quả pháp lý không đáng có.
Cuối cùng, mặc dù Open AI đã nhận thức được vấn nạn tin giả và đang sử dụng mô hình API để kiểm duyệt và cảnh báo, tuy vậy, hiệu quả của mô hình này vẫn cần được kiểm chứng trong một khoảng thời gian dài. Để hỗ trợ cho Open AI, người dùng có thể tích cực báo cáo các nội dung sai sự thật, gây nhầm lẫn,… nhằm góp phần cải thiện hiệu quả của các câu trả lời thông qua tận dụng Mô hình Học tăng cường từ phản hồi của người dùng (RLHF) của ChatGPT.
Cơn sốt ChatGPT
“Trải nghiệm ChatGPT chưa?” là câu hỏi mà chúng tôi được nghe nhiều nhất trong thời gian qua. Chỉ trong một thời gian rất ngắn, ChatGPT đã chính thức trở thành một cơn sốt mang tính toàn cầu.
Vốn là một trong những sản phẩm công nghệ tiên tiến của Open AI – một tổ chức nghiên cứu và phát triển trí tuệ nhân tạo hàng đầu thế giới, ChatGPT được phát triển dựa trên công nghệ xử lý ngôn ngữ tự nhiên – một mô hình học sâu (deep learning) với khả năng học và tự động tạo ra văn bản, dựa trên một lượng dữ liệu đầu vào khổng lồ.
ChatGPT đã gây ấn tượng mạnh mẽ đến kinh ngạc vì có khả năng hiểu, diễn giải, phân tích ngôn ngữ của con người để đưa ra những câu trả lời với ngôn ngữ tự nhiên, nhanh chóng và “có vẻ chính xác”.
Rất nhiều người dùng đã có thêm một trợ lý ảo có vẻ “biết tuốt”, hỏi gì cũng có thể trả lời một cách mượt mà và nhanh chóng. Đôi khi là những câu trả lời mang tính khôi hài, đôi khi rất thuyết phục và luôn luôn rành mạch, trôi chảy.
ChatGPT dần trở thành quen thuộc trong nhiều hoạt động của con người, từ giáo dục, báo chí, tiếp thị, xuất bản, lập trình,… Xưa kia, không biết thì tra Google, ngày nay cứ hễ không biết ta tìm đến ChatGPT. Nhưng…
Đầu mối thông tin giả
Tác giả bài viết đã vô cùng ngạc nhiên vì sự hoạt ngôn của ChatGPT nhưng cũng hết sức ngơ ngác về trình độ tạo dựng và cung cấp thông tin sai lệch, bịa đặt của chính ứng dụng này. Điển hình như, ChatGPT đã liệt kê ra một danh sách doanh nghiệp vỡ nợ trái phiếu tại Việt Nam và Trung Quốc với đầy đủ tên gọi, số tiền vỡ nợ, thời gian. Thế nhưng tất cả thông tin về vỡ nợ đều không có thật ngoại trừ danh tính của tên doanh nghiệp là thật.
Trường hợp người dùng là cá nhân thì cần cẩn trọng trong việc tiếp nhận các thông tin từ ChatGPT, đưa ra nhiều kiểu câu hỏi khác nhau, kiểm chứng và xác minh các thông tin do chatbot này cung cấp trước khi chia sẻ, sử dụng để tránh các hậu quả pháp lý không đáng có.
Vì muốn kiểm chứng, chúng tôi đã yêu cầu nó cung cấp thêm nguồn thông tin và đường link (nếu có). Ngay lập tức, ChatGPT đã đưa ra một loạt đường link mà do chính nó tạo dựng nhưng hoàn toàn không có thật.
Thông qua trải nghiệm cá nhân, nhóm tác giả nhận thấy xác suất xuất hiện những thông tin sai lệch là không nhỏ trong các câu trả lời. Điều đó tạo nên một mối nguy hiểm rất lớn nếu như người dùng không hoặc không có khả năng kiểm chứng thông tin.
Đồng thời, các thông tin sai sự thật do ChatGPT cung cấp cũng có thể xâm phạm đến quyền và lợi ích hợp pháp của tổ chức, cá nhân khác. Việc nó đưa thông tin thất thiệt về các doanh nghiệp có thật vỡ nợ là một ví dụ. Nguy hiểm hơn cả là khi người dùng tin tưởng rồi phát tán những thông tin này. Bởi lẽ, theo Janet Haven (Giám đốc điều hành tổ chức Data & Society), người dùng sẽ luôn sử dụng công nghệ theo cách mà người tạo ra chúng có thể hoàn toàn không có ý định đó.
Sự mơ hồ về trách nhiệm pháp lý
Như đã phân tích ở trên, việc ứng dụng ChatGPT nói riêng và các chatbot nói chung vào đời sống đem lại nhiều lợi và hại, được và mất. Tuy nhiên, tính hai mặt của trợ lý ảo này đang đem đến nhiều lo ngại hơn khi các quy định về trách nhiệm pháp lý của các bên liên quan còn khá mơ hồ.
Theo Điều khoản dịch vụ cung cấp bởi Open AI, người dùng được cho là phải chịu trách nhiệm về toàn bộ nội dung đầu vào và được Open AI chuyển nhượng tất cả các quyền, tư cách cũng như lợi ích có được từ việc khai thác đầu ra khi sử dụng ChatGPT.
Open AI dĩ nhiên cũng tuyên bố loại trừ trách nhiệm trong trường hợp người dùng sử dụng thông tin đầu ra được cung cấp và gây ra các thiệt hại trực tiếp, gián tiếp hoặc ngẫu nhiên. Các tuyên bố miễn trừ trách nhiệm và thỏa thuận tương tự như vậy cũng xuất hiện ở Google, Twitter, Facebook và các nền tảng khác.
Điều đó có nghĩa là việc nội dung được cung cấp có bất hợp pháp hay không còn tùy thuộc vào việc người dùng hiểu, áp dụng nó vào mục đích và tình huống nào. Chúng tôi tin rằng các tuyên bố miễn trừ của Open AI là hợp lý ở một mức độ nào đó, tuy nhiên người dùng có thể kiểm soát nội dung đầu ra đến mức nào vẫn chưa được Open AI giải trình cụ thể, đồng thời cũng chưa có căn cứ nào để bảo đảm phiên bản thử nghiệm hiện tại của ChatGPT trung lập như Open AI đã khẳng định.
Tại Mỹ, nơi ChatGPT ra đời, điều 230 Đạo luật về Chuẩn mực Truyền thông (Communications Decency Act) được ban hành năm 1996 là cơ sở pháp lý quan trọng để bảo vệ công ty công nghệ hay nền tảng mạng xã hội như Twitter, Facebook, YouTube, Google…, và tiếp theo đây là ChatGPT của Open AI khỏi các vụ kiện về nội dung.
Ra đời như một giải pháp cho ngành công nghiệp Internet non trẻ ở thời điểm đó, điều 230 nói trên đã giải phóng các công ty công nghệ khỏi trách nhiệm pháp lý với các thông tin được đăng tải bởi người dùng, miễn là các trang web, nền tảng có thể kịp thời xóa bỏ các nội dung sai lệch hoặc phản cảm. Mặc dù thực tiễn xét xử đã nhiều lần bác bỏ đa số nội dung trong đạo luật này vì vi phạm quy định của hiến pháp về quyền tự do ngôn luận, riêng điều 230 vẫn tồn tại.
Theo ý kiến của Giáo sư Xuan Thao – Nguyen (Giám đốc Trung tâm Nghiên cứu luật châu Á, trường Đại học Luật, Đại học Washington (Mỹ), tranh luận về trách nhiệm pháp lý của các công ty công nghệ đối với nội dung độc hại xuất hiện trên các nền tảng vẫn luôn là vấn đề nóng tại Mỹ.
Ngược lại, tại Trung Quốc những năm gần đây các nhà cung cấp dịch vụ lại thường bị buộc phải chịu trách nhiệm pháp lý đối với nội dung được đề xuất trên nền tảng. Điều đó cho thấy một nghĩa vụ cao hơn và trách nhiệm lớn hơn trong thực hiện các biện pháp hiệu quả để ngăn chặn nội dung vi phạm.
Ví dụ, vào tháng 9-2017, Văn phòng Thông tin Quốc vụ viện Trung Quốc (SCIO) tuyên bố rằng các nền tảng xã hội do ba ông lớn Tencent, Baidu và Alibaba đã bị phạt vì đăng tin tức sai sự thật, dung túng cho các nội dung khiêu dâm và nội dung thông tin bị cấm khác. Cụ thể, Baidu Tieba, một trang web do gã khổng lồ công cụ tìm kiếm Baidu điều hành và Weibo, một phần thuộc sở hữu của Alibaba, bị phạt vì không ngăn chặn người dùng lan truyền tin tức sai lệch.
Tại Việt Nam, việc xử lý hành vi phát tán tin giả được quy định tại Nghị định 15/2020/NĐ-CP. Theo đó, ngoài cá nhân phát tán tin giả, tổ chức, doanh nghiệp thiết lập mạng xã hội còn có thể bị phạt tiền từ 50 triệu đồng đến 70 triệu đồng khi chủ động lưu trữ, truyền đưa thông tin giả mạo, thông tin sai sự thật, vu khống, xuyên tạc… cũng như không thực hiện việc ngăn chặn, loại bỏ thông tin vi phạm theo quy định pháp luật. Tuy nhiên thực tế cho thấy chủ thể thường xuyên bị xử phạt về hành vi phát tán thông tin sai sự thật là cá nhân, số vụ việc có xác định trách nhiệm của nền tảng thì không đáng kể.
Riêng đối với chế tài hình sự, các loại tội phạm liên quan đến hành vi nói trên, ví dụ như điều 117 về tội làm, tàng trữ, phát tán hoặc tuyên truyền thông tin, tài liệu, vật phẩm nhằm chống Nhà nước Cộng hòa xã hội chủ nghĩa Việt Nam, điều 155 về tội làm nhục người khác… đều chỉ áp dụng cho người phạm tội là cá nhân, không áp dụng cho pháp nhân thương mại.
Người dùng cần tỉnh táo
Dù mạnh mẽ và tinh vi đến như thế nào, ChatGPT vẫn là một công cụ còn đang được hoàn thiện. Trên trang chủ của mình, Open AI cũng khẳng định về việc không đưa ra bất kỳ đảm bảo nào cho các dịch vụ đang được cung cấp bởi phiên bản Beta ở thời điểm hiện tại.
Do đó, các tổ chức nên tự phát triển hoặc sử dụng các hệ thống, bộ lọc của bên thứ ba để kịp thời phát hiện, gắn cờ và ngăn chặn những nội dung đầu vào và đầu ra có khả năng sai lệch, gây nhầm lẫn, bất hợp pháp… Bởi lẽ, trách nhiệm pháp lý phát sinh từ việc sử dụng các thông tin do ChatGPT cung cấp suy cho cùng vẫn được quy về cho người dùng.
Trường hợp người dùng là cá nhân thì cần cẩn trọng trong việc tiếp nhận các thông tin từ ChatGPT, đưa ra nhiều kiểu câu hỏi khác nhau, kiểm chứng và xác minh các thông tin do chatbot này cung cấp trước khi chia sẻ, sử dụng để tránh các hậu quả pháp lý không đáng có.
Cuối cùng, mặc dù Open AI đã nhận thức được vấn nạn tin giả và đang sử dụng mô hình API để kiểm duyệt và cảnh báo, tuy vậy, hiệu quả của mô hình này vẫn cần được kiểm chứng trong một khoảng thời gian dài. Để hỗ trợ cho Open AI, người dùng có thể tích cực báo cáo các nội dung sai sự thật, gây nhầm lẫn,… nhằm góp phần cải thiện hiệu quả của các câu trả lời thông qua tận dụng Mô hình Học tăng cường từ phản hồi của người dùng (RLHF) của ChatGPT.
Xem thêm