Sự phát triển nhanh chóng của AI tạo sinh, bao gồm các mô hình Ngôn ngữ lớn (LLM) như ChatGPT/GPT-4 của OpenAI, đang tạo ra những rủi ro và thách thức mới cho doanh nghiệp. Theo nhóm tác giả của tạp chí HBR (I. Glenn Cohen, Theodoros Evgeniou và Martin Husovec), các công ty nên chú trọng việc xây dựng các chính sách thực tiễn liên quan đến việc sử dụng các công nghệ này.
Rò rỉ thông tin
Đầu năm 2023, Samsung đã phát hiện ra nhân viên vô tình chia sẻ dữ liệu bí mật với ChatGPT - điều này có nghĩa là thông tin độc quyền của công ty có thể được sử dụng để đào tạo mô hình OpenAI và có khả năng bị tiết lộ cho những người dùng khác. Tương tự, bằng một số kỹ thuật nhắc nhở thông minh, người dùng đã thuyết phục được chatbot AI của Microsoft chia sẻ thông tin mật. Bất chấp các biện pháp bảo mật đang được áp dụng, rõ ràng LLM có khả năng gây ra rủi ro đáng kể đối với thông tin bí mật hoặc nhạy cảm.
Việc giải quyết rủi ro này đòi hỏi nỗ lực chung của cả người dùng và nhà phát triển các công cụ AI. Ví dụ: phải cân nhắc các nguyên tắc dành cho gợi ý mà nhân viên sử dụng làm đầu vào cho các công cụ AI, hay các công cụ cảnh báo nhân viên khi họ chuẩn bị gửi nội dung có thể bao gồm thông tin nhạy cảm của công ty tới AI của bên thứ ba.
Các nhà phát triển AI cũng cần phải tiến hành thẩm định cẩn thận đối với cả dữ liệu và nhà cung cấp dữ liệu khi đào tạo các mô hình AI. Điều này có nghĩa là luôn xem xét cẩn thận nguồn gốc của dữ liệu.
Ví dụ: Getty gần đây đã chia sẻ kế hoạch phát triển các công cụ AI tạo sinh sẽ được đào tạo về nội dung được cấp phép đầy đủ, đảm bảo rằng những người sở hữu bản quyền hình ảnh được sử dụng để đào tạo AI có thể nhận được tiền bản quyền. Cách này cũng hứa hẹn sẽ bảo vệ những người sử dụng hệ thống khỏi các vụ kiện vi phạm bản quyền đối với sản phẩm của AI do nguồn gốc của dữ liệu đào tạo.
Kết quả đầu ra không chính xác
AI tạo sinh được đào tạo trên một tập dữ liệu nhất định, và không có cách nào dễ dàng để truy ngược nguồn đầu vào cụ thể cho mỗi sản phẩm được tạo ra, hoặc cài đặt AI “quên” đi mọi dữ liệu không chính xác hoặc bất hợp pháp.
Do đó, những công cụ này có nguy cơ tạo ra kết quả đầu ra không chính xác, có thể gây thiệt hại đáng kể. Khi chatbot AI của Google mắc lỗi cơ bản trong bản demo đầu tiên, định giá của công ty đã giảm hơn 100 tỷ USD. Nội dung gây hiểu lầm và các lỗi khác xâm nhập vào kết quả đầu ra của LLM, từ những sai lầm gây cười đến thông tin sai lệch gây tổn thất nặng nề.
Các nhà phát triển AI cũng như người dùng cần phải kiểm tra và phản hồi để đảm bảo chất lượng đầu ra và liên tục cải thiện chúng. Ngoài ra, công ty cũng cần giám sát chất lượng sản phẩm cuối cùng được tạo ra khi nhân viên sử dụng AI. Mặc dù nhiều người cho rằng LLM có thể giúp cải thiện hiệu suất làm việc. Song, nghiên cứu gần đây của một đội nhóm từ Harvard, MIT, Đại học Pennsylvania và Công ty tư vấn Boston lại cho thấy rằng một số công việc có thể chịu ảnh hưởng xấu. Điều gì sẽ xảy ra nếu ChatGPT dẫn đến hiệu suất kém hơn hoặc ảnh hưởng xấu đến chất lượng của các quyết định và dịch vụ? Để ứng phó với vấn đề này, các công ty cần có chính sách sử dụng AI và giám sát nghiêm ngặt chất lượng công việc được tạo ra nhờ sử dụng trí tuệ nhân tạo.
Các rủi ro tiềm ẩn
Các nội dung không chính xác có thể dẫn đến một loạt rủi ro trách nhiệm khi sử dụng AI trong kinh doanh. Các công cụ như GPT-4 vượt qua các bài kiểm tra chuyên môn và thực hiện một số nhiệm vụ nhất định ngang bằng với con người, nên ngày càng có nhiều ứng dụng AI này vào thực tế. Mặc dù điều này tạo ra những cơ hội phát triển mới, song nó cũng tạo ra rủi ro mới vì các công ty có thể phải chịu trách nhiệm về mọi nội dung không chính xác mà những công cụ này đưa ra.
Ví dụ: ChatGPT đã được chứng minh là có hiệu quả trong việc tạo ra những bản thảo đầu tiên của các văn bản pháp lý cơ bản như hợp đồng, di chúc và khiếu nại. Tuy nhiên, khi luật sư sử dụng ChatGPT để soạn thảo hợp đồng cho khách hàng lại không nhận thấy rằng nội dung được tạo ra bao gồm các điều khoản bất lợi và không chính xác, dẫn đến hợp đồng không thể được thực hiện. Hoặc nếu một luật sư sử dụng ChatGPT để soạn thảo đơn khiếu nại về tranh chấp hợp đồng, và nó tạo ra các chi tiết không đúng sự thật về vụ việc thì luật sư có thể bị kiện.
Rủi ro pháp lý
Tốc độ đổi mới nhanh chóng khiến các công cụ AI có thể vi phạm các quy định kỹ thuật số ngay khi chúng có hiệu lực. Ví dụ: LLM và một số mô hình nền tảng đã vi phạm một số quy định bao gồm Đạo luật dịch vụ kỹ thuật số của EU được thông qua gần đây, để đảm bảo sự tin cậy và an toàn trực tuyến, cũng như đề xuất Đạo luật AI của EU.
Rõ ràng, các quy định quản lý việc sử dụng AI vẫn đang được phát triển. Nhưng khi luật mở rộng để bao gồm các công cụ AI tạo sinh mới, các công ty có thể phải đối mặt với những rào cản pháp lý mới. Ví dụ: về mặt sở hữu trí tuệ, nhiều vụ kiện tụng đang chờ xử lý liên quan đến lo ngại về bản quyền từ các nghệ sĩ và người sáng tạo có nội dung được sử dụng để đào tạo các mô hình AI. Các công ty sử dụng các công cụ được xây dựng trên dữ liệu có nguồn gốc đáng ngờ có thể vô tình thấy mình vi phạm bản quyền và các quy định khác khi các cấu trúc pháp lý này hoàn thiện.
Áp lực cạnh tranh
Bất chấp nhiều rủi ro, khi AI tạo sinh ngày càng trở nên phổ biến trong nhiều ngành nghề, việc chọn không sử dụng nó có thể trở nên khó chấp nhận. Chẳng hạn, nếu việc sử dụng LLM có thể giúp luật sư tiết kiệm được vài giờ làm việc phải trả, thì khách hàng của họ có thể sẽ gây áp lực buộc họ phải làm như vậy - ngay cả khi hệ thống giám sát đầu ra của các công cụ này vẫn còn khá hạn chế.
Doanh nghiệp của bạn đã sẵn sàng cho AI tạo sinh chưa?
Hiện tại, AI tạo sinh vẫn chủ yếu được sử dụng khi truy cập một trang web cụ thể và đưa ra yêu cầu về thông tin và hình ảnh giống như một cuộc trò chuyện. Nhưng khi các công ty phát triển AI đang nhanh chóng thúc đẩy sự tích hợp toàn diện hơn nhiều vào các sản phẩm quen thuộc hiện có, chúng ta có thể không còn xa thời điểm mà AI tạo sinh sẽ trở nên phổ biến. Hiện nay, có nhiều phần mềm quản lý doanh nghiệp đã được tích hợp thêm AI nhằm mục đích hỗ trợ tối đa cho nhu cầu của tổ chức.
Các nhà lãnh đạo cần hiểu cả những ứng dụng tiềm năng và những rủi ro của trí tuệ nhân tạo để có thể đưa ra và áp dụng các chính sách, quy trình có thể giúp tổ chức có khởi đầu thuận lợi trong việc quản lý và sử dụng AI.
(Bài viết được dịch và biên tập từ Harvard Business Review: Navigating the New Risks and Regulatory Challenges of GenAI)