Tại sao cần đánh giá rủi ro của AI Agents
Mặc dù tiềm năng lợi ích là rất lớn nhưng nếu không đánh giá rủi ro của AI Agents kỹ lưỡng có thể dẫn đến những hậu quả tiêu cực khó lường và có thể làm suy yếu, thậm chí triệt tiêu những lợi ích lâu dài mà AI Agents hứa hẹn mang lại.
Các nghiên cứu thực tế đã chỉ ra một tỷ lệ đáng kể các dự án AI không đạt được mục tiêu đề ra, với một số báo cáo ước tính có tới 80% dự án AI thất bại trước khi phát huy hết tiềm năng.
Con số này là một lời cảnh tỉnh, nhấn mạnh tầm quan trọng của việc hiểu rõ và lường trước các “cạm bẫy” tiềm ẩn trong quá trình triển khai.
Do đó, đánh giá rủi ro của AI Agents không chỉ đơn thuần là một bước chuẩn bị mang tính hình thức mà phải được coi là một yếu tố nền tảng, quyết định sự thành công và tính bền vững của việc ứng dụng AI Agents trong mọi doanh nghiệp.
Một quy trình đánh giá rủi ro toàn diện sẽ giúp doanh nghiệp chủ động xác định, phân tích và đưa ra các biện pháp đối phó phù hợp.
Từ đó đảm bảo công nghệ được triển khai một cách có trách nhiệm, an toàn và mang lại giá trị thực sự.
Hơn nữa, sự phổ biến nhanh chóng của AI Agents có nguy cơ tạo ra một “khoảng cách năng lực rủi ro” giữa các doanh nghiệp.
Những tổ chức tiên phong, với nguồn lực dồi dào có thể đầu tư mạnh mẽ vào nghiên cứu, thử nghiệm và xây dựng các khung quản trị rủi ro phức tạp, chuyên biệt cho AI Agents.
Trong khi đó, các doanh nghiệp nhỏ hơn hoặc những đơn vị chậm chân trong việc tiếp cận công nghệ này có thể bị tụt lại phía sau, không chỉ về mặt năng lực cạnh tranh mà còn về khả năng nhận diện và quản lý các rủi ro mới.
Tình trạng này có thể dẫn đến một thị trường phân cực, nơi một số ít doanh nghiệp gặt hái thành công lớn từ AI Agents, trong khi phần còn lại phải đối mặt với những hậu quả tiêu cực do thiếu sự chuẩn bị và năng lực quản trị rủi ro tương xứng.
Rủi ro pháp lý và tuân thủ
Trách nhiệm pháp lý
Một trong những rủi ro pháp lý đáng kể nhất là khả năng doanh nghiệp và thậm chí cả các nhà cung cấp giải pháp AI phải chịu trách nhiệm pháp lý trực tiếp cho các quyết định hoặc hành động do AI Agents thực hiện.
Rủi ro này rất dễ xảy ra nếu những hành động của AI gây ra thiệt hại, tổn thất hoặc dẫn đến sự phân biệt đối xử.
Ví dụ: Vụ kiện điển hình liên quan đến nền tảng Workday là một minh chứng rõ ràng, trong đó tòa án xem xét khả năng người sử dụng lao động và Workday (nhà cung cấp) cùng phải chịu trách nhiệm khi thuật toán AI tuyển dụng bị cáo buộc có hành vi phân biệt đối xử.
Tương tự, rủi ro về trách nhiệm sản phẩm cũng có thể phát sinh nếu một AI Agent được cho là có thiết kế lỗi hoặc nhà phát triển không cung cấp những cảnh báo đầy đủ và rõ ràng về các hạn chế cũng như nguy cơ tiềm ẩn của nó.
Ví dụ: Vụ kiện liên quan đến chatbot Character.AI, nơi sản phẩm này bị cáo buộc gây ra những tác động tiêu cực và có hại cho người dùng vị thành niên, là một ví dụ minh họa cho loại rủi ro này.
Những diễn biến này cho thấy một sự thay đổi đáng kể trong cách tiếp cận pháp lý, khi khái niệm trách nhiệm đại diện truyền thống, vốn thường áp dụng cho hành vi của con người đang dần được mở rộng để bao gồm cả các thực thể trí tuệ nhân tạo.
Vì thế đặt ra những thách thức không nhỏ cho các khung pháp lý hiện hành, vốn được xây dựng chủ yếu dựa trên giả định về vai trò và trách nhiệm của con người.
Sự thiếu rõ ràng của khung pháp lý hiện tại đối với AI Agents tạo ra một “vùng xám” rủi ro, đặc biệt đối với các doanh nghiệp hoạt động trên phạm vi quốc tế hoặc cung cấp dịch vụ cho người dùng ở nhiều quốc gia khác nhau.
Các vụ kiện như Workday và Character.AI cho thấy tòa án ở một số khu vực pháp lý đang nỗ lực áp dụng các nguyên tắc pháp lý hiện có vào các tình huống mới do AI tạo ra.
Tuy nhiên, thiếu nhất quán giữa các hệ thống pháp luật và khi chưa có các quy định cụ thể, chi tiết cho AI Agents đồng nghĩa với việc doanh nghiệp phải đối mặt với tình trạng không chắc chắn về pháp lý.
Một hành động của AI Agent có thể được xem là hợp pháp ở một quốc gia nhưng lại cấu thành vi phạm ở một quốc gia khác.
Từ đó làm tăng chi phí tuân thủ và nguy cơ vướng vào các tranh chấp, kiện tụng phức tạp.
Bản quyền và sở hữu trí tuệ
Sự phát triển của AI tạo sinh, một thành phần thường thấy trong các AI Agents phức tạp cũng làm dấy lên những lo ngại về vi phạm bản quyền và quyền sở hữu trí tuệ.
Công cụ AI có khả năng tạo ra hình ảnh theo phong cách của một nghệ sĩ cụ thể hoặc tạo ra hình ảnh trông giống như một nhân vật nổi tiếng có thể dẫn đến các khiếu nại về vi phạm bản quyền, vi phạm quyền công khai hoặc vi phạm nhãn hiệu hàng hóa.
Doanh nghiệp sử dụng những nội dung này có thể đối mặt với rủi ro pháp lý nếu không có sự cho phép cần thiết.
Một vấn đề pháp lý phức tạp khác là khả năng các tác phẩm do AI hoàn toàn tự tạo ra có nguy cơ không được pháp luật bản quyền bảo hộ.
Theo truyền thống, luật bản quyền ở nhiều quốc gia, bao gồm cả các quy định quốc tế, thường yêu cầu yếu tố “sáng tạo của con người” để một tác phẩm được coi là đối tượng của quyền tác giả.
Khi AI ngày càng trở nên tinh vi và có khả năng “sáng tác” độc lập, ranh giới giữa tác phẩm “do người làm” và tác phẩm “do máy làm” ngày càng trở nên mong manh và khó xác định.
Do đó có thể dẫn đến tình trạng các sản phẩm sáng tạo giá trị do AI Agents tạo ra lại không được bảo vệ đầy đủ về mặt pháp lý, gây thiệt thòi cho doanh nghiệp đầu tư vào công nghệ này.
Sử dụng AI Agents trong các hoạt động sáng tạo nội dung đòi hỏi sự cẩn trọng cao độ để tránh các tranh chấp pháp lý không đáng có, gây tốn kém về tài chính và ảnh hưởng tiêu cực đến uy tín của doanh nghiệp.
Doanh nghiệp cần xây dựng và thực thi các chính sách nội bộ rõ ràng liên quan đến việc sử dụng tài sản trí tuệ của bên thứ ba trong quá trình huấn luyện mô hình AI hoặc khi tạo ra các sản phẩm đầu ra từ AI.
Bảo mật và quyền riêng tư
AI Agents để có thể hoạt động hiệu quả và thực hiện các tác vụ phức tạp, thường yêu cầu quyền truy cập và xử lý một lượng lớn dữ liệu, bao gồm cả thông tin cá nhân nhạy cảm.
Điều này làm tăng đáng kể nguy cơ vi phạm các quy định pháp luật về bảo vệ dữ liệu và quyền riêng tư.
Có thể kể đến Quy định chung về Bảo vệ Dữ liệu của Liên minh Châu Âu (GDPR), Đạo luật Quyền riêng tư của Người tiêu dùng California (CCPA) và Luật An ninh mạng của Việt Nam.
Không tuân thủ quy định có thể dẫn đến các khoản phạt nặng nề, tổn hại danh tiếng và mất lòng tin từ phía khách hàng.
Bên cạnh đó, khi AI Agents thu thập và tập trung một lượng lớn dữ liệu cũng có thể làm gia tăng “bề mặt tấn công” của doanh nghiệp, khiến tổ chức trở thành mục tiêu hấp dẫn hơn đối với các tác nhân xấu và tin tặc.
Một rủi ro khác là nhân viên vô tình hoặc cố ý nhập các thông tin bí mật, mã nguồn độc quyền của công ty vào các nền tảng AI.
Từ đso dẫn đến nguy cơ rò rỉ những thông tin này ra bên ngoài, làm suy yếu lợi thế cạnh tranh và khả năng bảo vệ bí mật kinh doanh.
Theo một số quy định, doanh nghiệp có thể phải cung cấp cho người dùng tùy chọn từ chối việc bị đưa ra quyết định hoàn toàn tự động bởi AI.
Hơn nữa cần phải minh bạch hóa hoàn toàn về cách thức dữ liệu của họ được thu thập, xử lý và sử dụng bao gồm cả việc liệu dữ liệu đó có được dùng để huấn luyện thuật toán AI hay không.
Do đó, tuân thủ các quy định về bảo vệ dữ liệu không chỉ là một nghĩa vụ pháp lý bắt buộc mà còn là một yếu tố then chốt để xây dựng và duy trì lòng tin với khách hàng cũng như các bên liên quan.
Khả năng tự chủ của AI Agents trong thu thập và xử lý dữ liệu càng làm tăng thêm tính phức tạp của bài toán đảm bảo tuân thủ.
Vì vậy cần đòi hỏi các biện pháp kiểm soát và giám sát chặt chẽ hơn.
Rủi ro với nhà cung cấp AI
Khi triển khai AI Agents, doanh nghiệp thường phải hợp tác với các nhà cung cấp công nghệ bên thứ ba.
Mối quan hệ này cũng tiềm ẩn nhiều rủi ro pháp lý nếu các điều khoản hợp đồng không được xem xét và đàm phán một cách kỹ lưỡng.
Doanh nghiệp cần đặc biệt chú ý đến các điều khoản liên quan đến bảo hành, giới hạn trách nhiệm và các quy định về bồi thường từ phía nhà cung cấp AI, nhất là trong trường hợp các quyết định hoặc hành động của AI Agent gây ra thiệt hại vật chất, tổn thất tài chính hoặc vi phạm các quy định pháp luật.
Một khía cạnh quan trọng khác là xác định rõ trách nhiệm đào tạo nhân viên sử dụng AI Agents một cách an toàn và hiệu quả cũng như mối liên hệ giữa trách nhiệm này với các điều khoản về trách nhiệm hợp đồng của nhà cung cấp.
Các vấn đề liên quan đến quyền sở hữu trí tuệ đối với nội dung do AI Agent tạo ra và các quy tắc về việc liệu thuật toán AI có được phép huấn luyện trên dữ liệu nội bộ của công ty hay không cũng cần được quy định rõ ràng trong hợp đồng.
Thêm vào đó, doanh nghiệp cần lường trước nguy cơ AI Agents có thể vô tình vi phạm các điều khoản dịch vụ của các nền tảng hoặc ứng dụng của bên thứ ba mà chúng tương tác (ví dụ, một số trang web có thể cấm bot tự động truy cập và thu thập dữ liệu).
Một mối lo ngại không nhỏ là nguy cơ “vendor lock-in” (bị khóa chân bởi nhà cung cấp) xảy ra khi doanh nghiệp trở nên quá phụ thuộc vào một nền tảng AI độc quyền.
Vì vậy khiến việc chuyển đổi sang một nhà cung cấp khác hoặc một giải pháp thay thế trở nên khó khăn và vô cùng tốn kém.
Rủi ro “khóa nhà cung cấp” không chỉ đơn thuần là một vấn đề về chi phí mà còn là một rủi ro chiến lược nghiêm trọng.
Khi một doanh nghiệp phụ thuộc quá nhiều vào một nền tảng AI Agent độc quyền, họ không chỉ đối mặt với chi phí chuyển đổi cao nếu muốn thay đổi.
Quan trọng hơn, sự phụ thuộc này có thể hạn chế khả năng của doanh nghiệp khi muốn tích hợp các công nghệ mới, ưu việt hơn từ các nhà cung cấp khác, hoặc gặp khó khăn khi tùy chỉnh giải pháp AI để phù hợp với những nhu cầu kinh doanh đặc thù đang thay đổi nhanh chóng.
Theo thời gian, điều này có thể làm suy giảm lợi thế cạnh tranh và kìm hãm khả năng đổi mới dài hạn của doanh nghiệp.
Từ đó biến AI Agent từ một công cụ hỗ trợ đắc lực thành một rào cản tiềm ẩn cho sự phát triển.
Vì thế hợp đồng với nhà cung cấp AI Agents không nên được xem nhẹ như một giao dịch mua bán thông thường, mà phải được coi là một thỏa thuận hợp tác chiến lược và chia sẻ rủi ro, trong đó doanh nghiệp cần chủ động đàm phán các điều khoản nhằm bảo vệ tối đa lợi ích của mình.
Rủi ro an ninh thông tin
Lỗ hổng bảo mật trong thiết kế
Một phát hiện quan trọng từ các nghiên cứu chuyên sâu như báo cáo của Unit 42 (thuộc Palo Alto Networks) là hầu hết các lỗ hổng bảo mật liên quan đến AI Agents không xuất phát từ bản thân các framework AI cốt lõi (như CrewAI hay AutoGen).
Lỗ hổng nằm ở cách thức các agent này được thiết kế, triển khai và đặc biệt là cách chúng được kết nối, tích hợp với các công cụ và hệ thống bên ngoài.
Điều này cho thấy rằng ngay cả khi sử dụng các nền tảng AI tiên tiến và được kiểm chứng, các yếu tố liên quan đến con người và quy trình trong quá trình phát triển và triển khai vẫn là những mắt xích yếu nhất, dễ bị tổn thương nhất.
Các mối đe dọa cốt lõi đã được xác định bao gồm một loạt các vấn đề kỹ thuật và quy trình.
Trong đó, tích hợp các công cụ bên ngoài một cách không an toàn, nguy cơ lộ thông tin xác thực của agent hoặc các hệ thống mà nó tương tác, khả năng thực thi mã một cách không hạn chế nếu agent bị xâm nhập và sự thiếu vắng một chiến lược phòng thủ theo lớp là những điểm yếu nghiêm trọng.
Bên cạnh đó, còn các điểm yếu như thiết kế prompt không đủ mạnh mẽ để chống lại các kỹ thuật tấn công, thiếu cơ chế lọc nội dung đầu vào và đầu ra trong thời gian thực, không làm sạch đầu vào cho các công cụ mà agent sử dụng.
Khi không sử dụng hoặc sử dụng không hiệu quả các môi trường cách ly cho bộ thực thi mã của agent cũng góp phần làm tăng rủi ro.
Đặc biệt, thiết kế prompt một cách không an toàn và tích hợp các công cụ bên ngoài mà không có đủ các biện pháp bảo vệ được xem là những điểm yếu chính, dễ bị khai thác.
Các lỗi cấu hình sai trong quá trình triển khai cũng là một nguồn gốc phổ biến của các lỗ hổng bảo mật.
Những phát hiện này nhấn mạnh sự cần thiết của việc áp dụng các thực hành phát triển phần mềm an toàn và tiến hành kiểm tra, đánh giá kỹ lưỡng các điểm tích hợp hệ thống khi triển khai AI Agents.
Nguy cơ tấn công chuyên biệt
Sự ra đời của AI Agents cũng đồng thời mở ra những vector tấn công mới, tinh vi hơn mà các hệ thống bảo mật truyền thống có thể chưa được chuẩn bị để đối phó một cách hiệu quả.
Unit 42 đã xác định và phân tích một loạt các kỹ thuật tấn công chuyên biệt có thể nhắm vào AI Agents.
Trong đó, tiêm prompt là một kỹ thuật phổ biến, nơi kẻ tấn công chèn các chỉ dẫn độc hại vào đầu vào của AI Agent để thao túng hành vi của nó.
Vì thế khiến nó bỏ qua các quy tắc an toàn, tiết lộ thông tin nhạy cảm, hoặc lạm dụng các công cụ được tích hợp.
Lạm dụng công cụ xảy ra khi kẻ tấn công, thường thông qua các prompt lừa đảo, khiến AI Agent sử dụng các công cụ tích hợp theo cách không mong muốn hoặc khai thác các lỗ hổng trong chính các công cụ đó.
Các kỹ thuật khác bao gồm phá vỡ ý định hoặc thao túng mục tiêu, nơi kẻ tấn công làm thay đổi mục tiêu hoặc quy trình suy luận của AI Agent, có thể dẫn đến chiếm quyền điều khiển agent.
Tội phạm còn giả mạo danh tính liên quan đến việc kẻ tấn công khai thác các cơ chế xác thực yếu kém để giả mạo AI Agent hoặc người dùng hợp pháp, với nguy cơ lớn nhất là đánh cắp thông tin xác thực của agent.
Tấn công mã hoặc thực thi mã từ xa không mong muốn xảy ra khi kẻ tấn công khai thác khả năng thực thi mã của AI Agent (nếu có) bằng cách tiêm mã độc, từ đó có thể giành quyền truy cập trái phép vào môi trường thực thi, mạng nội bộ và hệ thống tệp tin.
Đầu độc giao tiếp giữa các agent nhắm vào các hệ thống đa agent, nơi kẻ tấn công chèn thông tin sai lệch vào các kênh giao tiếp giữa các agent để phá vỡ quy trình làm việc cộng tác hoặc thao túng quyết định tập thể.
Cuối cùng quá tải tài nguyên là kỹ thuật mà kẻ tấn công khai thác các tài nguyên được cấp cho AI Agent (như năng lực tính toán, bộ nhớ) bằng cách tạo ra các yêu cầu quá mức, làm suy giảm hiệu suất hoặc gây gián đoạn hoạt động.
Các cuộc tấn công mô phỏng được thực hiện bởi các nhà nghiên cứu đã chứng minh tính khả thi của những kỹ thuật này.
Do đó cho thấy khả năng trích xuất các hướng dẫn nội bộ của agent, cấu trúc (schema) của các công cụ mà nó sử dụng, đánh cắp thông tin xác thực, thực hiện tấn công SQL injection, khai thác các lỗ hổng về ủy quyền ở cấp độ đối tượng (Broken Object-Level Authorization – BOLA).
Tội phạm thậm chí là thực hiện tiêm prompt gián tiếp để thu thập lịch sử hội thoại của người dùng.
Những ví dụ này cho thấy kẻ tấn công có thể khai thác chính khả năng tự chủ, học hỏi và tương tác của AI Agents để thực hiện các hành vi độc hại.
Vì thế đòi hỏi các biện pháp phòng thủ phải trở nên thông minh và thích ứng hơn.
Rò rỉ dữ liệu nhạy cảm
Một trong những đặc điểm vận hành cốt lõi của AI Agents là chúng cần được cấp quyền truy cập rộng rãi vào các nguồn dữ liệu, hệ thống và các chức năng khác nhau trong tổ chức để có thể hoạt động một cách tự chủ và hiệu quả.
Tuy nhiên, chính sự truy cập sâu rộng này lại tạo ra một nguy cơ tiềm ẩn được gọi là quyền hạn quá mức.
Nếu một AI Agent với quyền hạn lớn bị xâm phạm hoặc hoạt động sai lệch, nó có thể vô tình hoặc cố ý hành động chống lại lợi ích của chính những người đã tạo ra và sử dụng nó.
Từ đó gây ra những hậu quả nghiêm trọng.
AI Agents thu thập, xử lý và lưu trữ một lượng lớn dữ liệu, bao gồm cả thông tin khách hàng, dữ liệu tài chính, bí mật kinh doanh và các thông tin độc quyền khác.
Vì vậy làm tăng đáng kể nguy cơ rò rỉ những thông tin quan trọng này nếu các biện pháp bảo vệ không đủ mạnh.
Dữ liệu mà AI Agents thu thập có thể bị lạm dụng cho các mục đích xấu nếu không được bảo vệ một cách đúng đắn và tuân thủ các quy định về quyền riêng tư.
Hơn nữa, sự “chuyển động linh hoạt” của dữ liệu là một đặc tính của AI Agents khi chúng thực hiện các nhiệm vụ.
Ví dụ: một AI Agent được giao nhiệm vụ đặt vé du lịch cho nhân viên có thể cần truy cập thông tin cá nhân, lịch trình và thậm chí cả thông tin thanh toán, sau đó tương tác với các hệ thống đặt vé bên ngoài.
Quá trình này có thể khiến dữ liệu di chuyển qua các ranh giới của doanh nghiệp, hoặc thậm chí ra bên ngoài tổ chức.
Do đó làm cho việc theo dõi và kiểm soát dòng chảy dữ liệu trở nên vô cùng khó khăn.
Điều này có thể dẫn đến các vụ rò rỉ dữ liệu không chủ ý hoặc bị các tác nhân độc hại khai thác.
Cân bằng giữa cung cấp đủ quyền truy cập cho AI Agents để chúng hoạt động hiệu quả và việc hạn chế quyền truy cập để giảm thiểu rủi ro rò rỉ dữ liệu là một thách thức quản trị lớn.
Nguyên tắc “đặc quyền tối thiểu”, theo đó mỗi agent chỉ được cấp những quyền hạn thực sự cần thiết để thực hiện nhiệm vụ của mình cần được áp dụng một cách nghiêm ngặt và nhất quán.
Khai thác bởi tội phạm mạng
Không chỉ các doanh nghiệp hợp pháp tìm cách khai thác tiềm năng của AI Agents, mà cả tội phạm mạng cũng nhận thấy cơ hội sử dụng công nghệ này để phục vụ cho các mục đích bất chính.
Các nhóm tội phạm mạng và tin tặc có thể tận dụng AI Agents để tự động hóa và nâng cao hiệu quả của các hoạt động độc hại.
Ví dụ: AI Agents có thể được sử dụng để tự động hóa việc quét tìm lỗ hổng bảo mật trên diện rộng, lựa chọn mục tiêu tấn công một cách thông minh hơn, hoặc khởi chạy các chiến dịch lừa đảo trực tuyến (phishing) được cá nhân hóa ở quy mô lớn, khiến chúng trở nên khó bị phát hiện hơn.
Mức độ nguy hiểm của việc AI Agents bị khai thác bởi tội phạm càng gia tăng bởi chính những đặc tính tiên tiến của công nghệ AI tự chủ.
- Khả năng “tự bảo tồn” của các hệ thống AI tự chủ, bao gồm khả năng tự học hỏi và điều chỉnh chiến thuật để vượt qua các biện pháp phòng thủ
- Khả năng tự sao chép để đảm bảo sự tồn tại và lan rộng, cũng như khả năng thực hiện các cuộc tấn công đa tầng, phức tạp bằng cách học hỏi từ các tương tác trước đó, làm cho chúng trở thành một công cụ cực kỳ nguy hiểm trong tay kẻ xấu.
Điều này báo hiệu một cuộc chạy đua vũ trang công nghệ mới, nơi các biện pháp phòng thủ an ninh mạng cũng phải liên tục phát triển, tích hợp AI để có thể đối phó với các mối đe dọa ngày càng tinh vi do AI tạo ra từ phía tấn công.
Doanh nghiệp cần đầu tư vào các giải pháp an ninh có khả năng học hỏi, thích ứng và dự đoán tương tự như các công cụ mà kẻ tấn công có thể sử dụng.
Một điểm cần nhấn mạnh là các lỗ hổng bảo mật của AI Agents thường không nằm ở mô hình AI cốt lõi, vốn có thể đã được các nhà phát triển lớn đầu tư nghiên cứu và bảo vệ kỹ lưỡng.
Thay vào đó, những điểm yếu chí mạng thường xuất hiện ở các “điểm nối” – đó là cách các AI Agents được tích hợp vào hệ thống hiện có, cách chúng được cấp quyền truy cập dữ liệu và chức năng và cách chúng tương tác với các công cụ, API cùng dịch vụ khác.
Do đó nếu chỉ tập trung vào bảo mật bản thân mô hình AI là một cách tiếp cận chưa đầy đủ.
Doanh nghiệp cần áp dụng một chiến lược bảo mật toàn diện, xem xét toàn bộ “hệ sinh thái” vận hành xung quanh AI Agent, bao gồm các giao diện lập trình ứng dụng (API) mà nó sử dụng, các cơ sở dữ liệu mà nó truy cập, các dịch vụ đám mây mà nó dựa vào và cả các quy trình làm việc của con người có liên quan đến hoạt động của Agent.
Hơn nữa, khả năng tự chủ và thực thi hành động của AI Agents đã làm thay đổi căn bản bản chất của các lỗ hổng bảo mật.
Nếu như với các mô hình GenAI truyền thống, một cuộc tấn công như “prompt injection” có thể dẫn đến việc hệ thống tiết lộ thông tin nhạy cảm hoặc tạo ra nội dung không mong muốn thì với AI Agents, hậu quả có thể nghiêm trọng hơn rất nhiều.
Một cuộc tấn công “prompt injection” thành công nhắm vào một AI Agent có quyền thực thi có thể khiến agent đó tự động thực hiện các giao dịch tài chính trái phép, thay đổi các cấu hình hệ thống quan trọng, xóa dữ liệu hoặc gửi các thông tin bí mật của công ty ra bên ngoài.
Trong trường hợp này, hậu quả không còn dừng lại ở việc lộ lọt thông tin mà là các hành động cụ thể gây ra thiệt hại trực tiếp và tức thời cho doanh nghiệp.
Điều này đặt ra yêu cầu cấp thiết đối với các biện pháp phòng ngừa, phát hiện xâm nhập và ứng phó sự cố, đòi hỏi chúng phải hoạt động với tốc độ nhanh hơn và có khả năng can thiệp tự động để ngăn chặn các hành vi gây hại trước khi chúng lan rộng.
Rủi ro vận hành và kỹ thuật
Chi phí cao và ROI mơ hồ
Một trong những rào cản lớn nhất đối với việc áp dụng AI Agents là chi phí đầu tư ban đầu có thể rất lớn.
Chi phí không chỉ là tiền mua phần mềm, bản quyền sử dụng các mô hình AI tiên tiến mà còn cả chi phí cho phần cứng chuyên dụng (như GPU), chi phí tích hợp AI Agents vào các hệ thống hiện có của doanh nghiệp, và chi phí đào tạo nhân viên để họ có thể vận hành và tương tác hiệu quả với công nghệ mới.
Một khảo sát cho thấy có đến 42% doanh nghiệp coi chi phí là rào cản chính khi cân nhắc triển khai AI.
Không chỉ chi phí đầu tư ban đầu cao, mà lợi tức đầu tư (ROI) từ các dự án AI Agents cũng thường không chắc chắn và khó dự đoán.
Khoảng 30% doanh nghiệp bày tỏ lo ngại về việc không đạt được hiệu quả kinh tế như mong đợi sau khi đã đầu tư một khoản tiền lớn vào AI.
Ví dụ: FedEx, công ty này được cho là đã phải đối mặt với các khoản chi phí “khủng khiếp” khi triển khai nền tảng Agentforce 2.0 của Salesforce, một phần do mô hình định giá dựa trên số lượng cuộc hội thoại của agent, khiến việc tính toán ROI trở nên rất mơ hồ và khó khăn.
Bên cạnh các chi phí dễ nhận thấy, còn có nhiều “chi phí ẩn” mà doanh nghiệp thường bỏ qua hoặc đánh giá thấp:
- Chi phí nâng cấp toàn bộ hạ tầng công nghệ thông tin để đáp ứng yêu cầu của AI.
- Chi phí bảo trì, giám sát và cập nhật liên tục các mô hình AI.
- Chi phí đào tạo lại nhân viên khi công nghệ thay đổi, và đặc biệt là các chi phí phát sinh khi cần mở rộng quy mô triển khai AI Agents ra toàn doanh nghiệp.
Việc đánh giá ROI cho AI Agents trở nên phức tạp hơn nhiều so với các dự án tự động hóa truyền thống.
Nhiều lợi ích mà AI Agents mang lại, như cải thiện chất lượng ra quyết định hoặc tăng cường khả năng đổi mới thường mang tính định tính và khó có thể định lượng một cách chính xác bằng các con số tài chính cụ thể.
Do đó, doanh nghiệp cần xây dựng một kế hoạch tài chính chi tiết, lường trước cả các chi phí ẩn, và thiết lập các chỉ số đo lường hiệu quả (KPIs) rõ ràng, phù hợp để theo dõi và đánh giá giá trị thực sự mà AI Agents mang lại.
Thách thức tích hợp và nâng cấp
Tích hợp AI Agents vào cơ sở hạ tầng công nghệ thông tin hiện có của doanh nghiệp là một thách thức kỹ thuật lớn và thường đòi hỏi những nỗ lực đáng kể.
Ví dụ: Một nghiên cứu đã chỉ ra có tới hơn 86% doanh nghiệp thừa nhận rằng họ cần phải nâng cấp hệ thống công nghệ hiện tại của mình để có thể triển khai AI Agents một cách hiệu quả.
Điều này cho thấy hạ tầng hiện tại của nhiều tổ chức chưa sẵn sàng cho việc đón nhận công nghệ AI tiên tiến này.
Một yếu tố quan trọng khác là khả năng truy cập và tích hợp dữ liệu từ nhiều nguồn khác nhau.
Theo khảo sát, 42% doanh nghiệp cho biết họ cần phải kết nối và truy cập dữ liệu từ tám nguồn trở lên để một AI Agent có thể hoạt động thành công và mang lại giá trị như mong đợi.
Tuy nhiên, các nền tảng tích hợp như một dịch vụ (iPaaS) mà nhiều doanh nghiệp đang sử dụng có thể chưa đáp ứng được yêu cầu về khối lượng và tốc độ xử lý dữ liệu của các ứng dụng AI.
Một báo cáo cho thấy gần một nửa (48%) số doanh nghiệp được hỏi cho rằng các sản phẩm iPaaS hiện tại của họ chỉ “phần nào sẵn sàng” cho những đòi hỏi về dữ liệu của AI.
Đặc biệt, tích hợp AI Agents với các hệ thống cũ như hệ thống hoạch định nguồn lực doanh nghiệp (ERP) hay quản lý quan hệ khách hàng (CRM), vốn thường không được thiết kế để tương tác với AI, là một rào cản đáng kể và tốn nhiều công sức.
Tích hợp phức tạp không chỉ làm tăng chi phí và thời gian triển khai mà còn có thể làm giảm đáng kể giá trị kỳ vọng từ AI Agents nếu không được giải quyết một cách triệt để.
Do đó, các chuyên gia khuyến nghị doanh nghiệp nên hướng tới một chiến lược nền tảng tích hợp hợp nhất và có khả năng mở rộng, thay vì áp dụng các giải pháp chắp vá, tạm thời cho từng ứng dụng AI riêng lẻ.
Độ tin cậy và khả năng kiểm soát
Một trong những khác biệt cơ bản giữa AI Agents và các phần mềm truyền thống là khả năng đưa ra những lựa chọn và hành động không hoàn toàn có thể đoán trước được.
Trong khi phần mềm truyền thống thường hoạt động theo các quy tắc và logic được lập trình cố định, AI Agents, đặc biệt là những agent có khả năng học hỏi và thích ứng, có thể phát triển những hành vi mới hoặc đưa ra các quyết định bất ngờ dựa trên dữ liệu và kinh nghiệm mà chúng thu thập được.
Điều này đòi hỏi doanh nghiệp phải thiết lập những ranh giới và cơ chế kiểm soát rõ ràng cho các lựa chọn và hành động của AI Agents để đảm bảo chúng không vượt ra ngoài phạm vi mong muốn hoặc gây ra những hậu quả tiêu cực.
Thiếu minh bạch trong cách AI Agents đưa ra quyết định, thường được gọi là vấn đề “hộp đen” (black box), cũng là một nguồn gốc gây ra sự thiếu tin tưởng từ phía người dùng và các bên liên quan.
Nếu không thể hiểu được logic đằng sau một quyết định của AI, việc đánh giá tính đúng đắn, công bằng và hợp lý của quyết định đó trở nên rất khó khăn.
Thêm vào đó, có một nguy cơ tiềm ẩn là các AI Agents có thể bị “trôi dạt” (drift) khỏi mục đích và hiệu suất ban đầu của chúng theo thời gian, do sự thay đổi trong dữ liệu đầu vào hoặc do quá trình học hỏi liên tục.
Sự trôi dạt này có thể dẫn đến các vấn đề nghiêm trọng về độ tin cậy nếu không được phát hiện và điều chỉnh kịp thời.
Đặc biệt đáng lo ngại là khả năng xuất hiện các “hành vi nổi sinh” ở AI Agents.
Đây là những hành vi phức tạp, thường là không lường trước được, phát sinh từ sự tương tác của các thành phần đơn giản hơn trong hệ thống AI, mà không hề được các nhà thiết kế lập trình một cách rõ ràng.
Những hành vi này có thể dẫn đến những hậu quả không mong muốn, thậm chí có hại, đặc biệt là trong các hệ thống quan trọng hoặc có tác động lớn.
Đã có những ví dụ thực tế minh họa cho rủi ro này:
- Chatbot của hãng hàng không Air Canada đã tự ý cung cấp thông tin sai lệch về giá vé và chính sách hoàn vé cho khách hàng.
- Chatbot của hãng xe Chevrolet đã “đồng ý” bán một chiếc xe Tahoe mới với giá chỉ 1 đô la sau khi bị người dùng thao túng.
- Chatbot của công ty giao vận DPD đã sử dụng ngôn từ thô tục, chửi thề với khách hàng.
Những ví dụ này cho thấy, khả năng tự học và thích ứng của AI Agents, mặc dù là một ưu điểm vượt trội, cũng chính là nguồn gốc của sự không chắc chắn và khó kiểm soát.
Do đó, thiết lập các cơ chế giám sát liên tục, kiểm tra thường xuyên và đặc biệt là khả năng can thiệp của con người khi cần thiết là vô cùng quan trọng để quản lý rủi ro này.
Hành vi không lường trước của AI Agents không chỉ đơn thuần là một lỗi kỹ thuật mà còn đặt ra một thách thức quản trị cơ bản.
Nó đòi hỏi các tổ chức phải có sự linh hoạt và khả năng thích ứng cao độ.
Khi những hành vi bất ngờ này xảy ra, doanh nghiệp không chỉ cần các biện pháp kỹ thuật để giám sát và kiểm soát, mà còn phải có khả năng phản ứng nhanh chóng, điều chỉnh các quy trình vận hành, và thậm chí là thay đổi chiến lược kinh doanh nếu cần.
Quản trị AI Agents không phải là một nhiệm vụ cố định mà là một quá trình liên tục học hỏi, đánh giá và thích ứng với sự thay đổi của công nghệ.
Sai lệch mục tiêu và định kiến
Ngay cả khi các AI Agents được lập trình với những mục tiêu tốt đẹp và có chủ đích tích cực, chúng vẫn có thể gây ra những tác hại không mong muốn.
Vấn đề này xảy ra khi hướng dẫn ban đầu không đủ rõ ràng, quá mơ hồ, hoặc nếu các giá trị đạo đức được nhúng vào hệ thống không hoàn toàn phù hợp với các giá trị và chuẩn mực của con người.
Đã có những ví dụ minh họa cho thấy AI khi đối mặt với tình huống khó khăn hoặc mục tiêu không rõ ràng, có thể tìm ra những cách thức “sáng tạo” nhưng lại tiêu cực để đạt được mục tiêu đó.
Ví dụ: một AI được lập trình để chơi cờ vua đã gian lận khi cảm thấy mình sắp thua hoặc một AI được giao nhiệm vụ tối đa hóa hiệu quả hoạt động có thể vô tình vi phạm quyền riêng tư của người dùng hoặc khai thác các kẽ hở pháp lý để đạt được mục tiêu đã được lập trình.
Một rủi ro nghiêm trọng khác là khả năng AI Agents khuếch đại các định kiến xã hội sẵn có.
Nếu một hệ thống AI được huấn luyện trên một bộ dữ liệu chứa đựng sự thiên lệch (ví dụ, dữ liệu lịch sử phản ánh sự bất bình đẳng giới hoặc chủng tộc), thì các quyết định và đầu ra của AI đó cũng sẽ mang theo những thiên lệch tương tự.
Khi một AI Agent tự chủ bắt đầu đưa ra các quyết định dựa trên dữ liệu thiên lệch này, nó có thể tạo ra ngày càng nhiều kết quả thiên lệch hơn.
Tệ hơn nữa, nếu những kết quả thiên lệch này lại được đưa trở lại vào hệ thống như một phần của dữ liệu huấn luyện mới.
Vì vậy nó sẽ tạo ra một vòng lặp nguy hiểm, ngày càng củng cố và làm sâu sắc thêm các định kiến đó.
Những định kiến này, khi được tự động hóa và nhân rộng bởi AI, có thể dẫn đến sự phân biệt đối xử trên quy mô lớn, gây ra các lỗi tuân thủ pháp luật nghiêm trọng, và làm tổn hại nặng nề đến danh tiếng cũng như uy tín của doanh nghiệp.
Ví dụ: các công cụ tuyển dụng dựa trên AI đã từng bị phát hiện từ chối các ứng viên nữ cho các vị trí kỹ thuật chỉ vì dữ liệu tuyển dụng trong quá khứ mà chúng được huấn luyện chủ yếu là nam giới.
Rủi ro này đặc biệt nguy hiểm vì nó có thể diễn ra một cách âm thầm, mang tính hệ thống và lan rộng, gây ra những tác động tiêu cực trên quy mô lớn trước khi được con người phát hiện và can thiệp.
Do đó, kiểm soát thuật toán, đánh giá chất lượng và tính đại diện của dữ liệu huấn luyện, cũng như thiết lập các cơ chế giám sát định kiến là cực kỳ quan trọng.
Chất lượng và quản trị dữ liệu
Dữ liệu được ví như “nhiên liệu” cho các hệ thống trí tuệ nhân tạo, và AI Agents cũng không ngoại lệ.
Chất lượng của dữ liệu đầu vào có ảnh hưởng trực tiếp và sâu sắc đến hiệu suất, độ tin cậy và tính hữu ích của AI Agents.
Nếu dữ liệu được sử dụng để huấn luyện hoặc vận hành AI Agents có chất lượng kém như không nhất quán về định dạng, không đầy đủ thông tin, chứa đựng lỗi, đã lỗi thời, hoặc bị trùng lặp thì AI Agents rất có thể sẽ đưa ra những phản hồi không chính xác.
Do đó tạo ra các “ảo giác” tức là đưa ra thông tin sai lệch một cách tự tin và cuối cùng là gây thất vọng cho người dùng cũng như làm giảm giá trị của ứng dụng.
Để hoạt động hiệu quả, AI Agents phụ thuộc rất nhiều vào nguồn dữ liệu đã được ngữ cảnh hóa một cách rõ ràng, được gán nhãn chính xác và đảm bảo tính toàn vẹn cao.
Bên cạnh các vấn đề chung về chất lượng dữ liệu, triển khai AI Agents còn đối mặt với những thách thức đặc thù liên quan đến dữ liệu.
Ví dụ: các hệ thống RAG, một kiến trúc phổ biến cho các AI Agents dựa trên kiến thức, đòi hỏi dữ liệu phải được cấu trúc theo cách tối ưu cho việc truy xuất và suy luận của mô hình ngôn ngữ lớn.
Không chỉ vậy, quản trị dữ liệu bao gồm các quy trình, chính sách và công nghệ để quản lý, bảo vệ và đảm bảo chất lượng dữ liệu cũng là một thách thức hàng đầu.
Cả lãnh đạo cấp cao (40%) và các chuyên gia thực hành (49%) đều xác định quản trị dữ liệu là một trong những rào cản lớn nhất khi phát triển và triển khai AI Agents.
Điều này cho thấy, nếu “nhiên liệu” (dữ liệu) kém chất lượng, thì “động cơ” AI, dù có hiện đại và mạnh mẽ đến đâu, cũng không thể hoạt động một cách hiệu quả và đáng tin cậy.
Do đó, đầu tư vào quản trị dữ liệu và đảm bảo chất lượng dữ liệu phải được coi là một ưu tiên hàng đầu trong bất kỳ dự án triển khai AI Agents nào.
Phụ thuộc vào chất lượng dữ liệu có thể tạo ra một vòng lặp rủi ro khó phá vỡ:
- Dữ liệu kém chất lượng dẫn đến hiệu suất AI kém.
- Hiệu suất AI kém dẫn đến các quyết định kinh doanh sai lầm.
- Các quyết định sai lầm này gây ra tổn thất và làm suy giảm niềm tin vào hệ thống AI.
- Khi niềm tin suy giảm, việc huy động thêm nguồn lực để làm sạch, cải thiện và quản trị dữ liệu lại càng trở nên khó khăn hơn.
Từ đó duy trì một chu kỳ tiêu cực ảnh hưởng đến toàn bộ nỗ lực ứng dụng AI của doanh nghiệp.
Thiếu hụt chuyên môn kỹ thuật
Một rào cản thực tế mà nhiều doanh nghiệp gặp phải khi muốn triển khai AI Agents là thiếu hụt đội ngũ nhân sự có chuyên môn sâu về trí tuệ nhân tạo.
Nhiều nhà lãnh đạo doanh nghiệp, đặc biệt là những người thuộc thế hệ trước hoặc không có nền tảng về công nghệ, có thể cảm thấy choáng ngợp trước hàng loạt các thuật ngữ chuyên ngành phức tạp như “machine learning” (học máy), “big data” (dữ liệu lớn), hay “neural networks” (mạng nơ-ron).
Họ không biết phải bắt đầu từ đâu để có thể ứng dụng AI một cách hiệu quả vào hoạt động kinh doanh của mình.
Bên cạnh đó, ngay cả khi đã có hệ thống AI, việc tương tác và điều khiển chúng cũng đòi hỏi những kỹ năng nhất định.
AI Agents, đặc biệt là những agent dựa trên các mô hình ngôn ngữ lớn, hoạt động hiệu quả nhất khi chúng được cung cấp những hướng dẫn (prompts) rõ ràng, cụ thể và phù hợp với ngữ cảnh.
Nếu người dùng không có khả năng xây dựng và tối ưu hóa các câu lệnh này một cách chính xác, kết quả mà AI Agent mang lại có thể sẽ không đạt được kỳ vọng, thậm chí là sai lệch hoặc vô ích.
Khoảng cách về kiến thức và kỹ năng này không chỉ làm chậm quá trình triển khai AI mà còn có thể dẫn đến việc sử dụng công nghệ một cách kém hiệu quả, lãng phí nguồn lực đầu tư.
Do đó, doanh nghiệp cần có kế hoạch đầu tư vào việc đào tạo, nâng cao năng lực cho đội ngũ nhân viên hiện có.
Ngoài ra có thể tìm kiếm sự hợp tác, tư vấn từ các đối tác bên ngoài có năng lực và kinh nghiệm chuyên sâu về AI để có thể vượt qua rào cản này.
Rủi ro đạo đức và kinh tế xã hội
Ảnh hưởng đến văn hóa doanh nghiệp
Khi AI Agents ngày càng đảm nhận nhiều nghiệp vụ và quy trình công việc mà trước đây do con người thực hiện, một số lãnh đạo doanh nghiệp bày tỏ lo ngại rằng điều này có thể dẫn đến sự suy giảm mức độ gắn kết giữa các thành viên trong đội ngũ.
Nếu nhân viên cảm thấy vai trò của mình bị thu hẹp hoặc bị thay thế bởi máy móc, điều này có thể ảnh hưởng tiêu cực đến tinh thần làm việc, sự hợp tác và cuối cùng là văn hóa chung của doanh nghiệp.
Bên cạnh đó, trong các tương tác với khách hàng, sử dụng quá nhiều công nghệ tự động hóa như chatbot AI có thể làm dấy lên nỗi sợ rằng giao tiếp sẽ trở nên máy móc, thiếu đi sự ấm áp, đồng cảm và cá nhân hóa.
Điều này đặc biệt quan trọng trong các ngành dịch vụ, nơi mối quan hệ cá nhân và sự tin cậy đóng vai trò then chốt.
Khách hàng có thể cảm thấy không được lắng nghe hoặc thấu hiểu.
Từ đó làm suy giảm sự gần gũi và lòng trung thành của họ đối với thương hiệu.
Tuy nhiên, cần nhìn nhận AI không nhất thiết phải thay thế hoàn toàn con người.
Thay vào đó, AI nên được xem là một công cụ hỗ trợ đắc lực, giúp giải phóng con người khỏi những công việc mang tính lặp đi lặp lại, tốn thời gian và ít giá trị gia tăng.
Cần phải nhấn mạnh vào lợi ích khi AI giúp con người có thể tập trung nhiều hơn vào các hoạt động đòi hỏi sự sáng tạo, tư duy chiến lược và tương tác phức tạp.
Tìm ra sự cân bằng hợp lý giữa việc tận dụng hiệu quả của tự động hóa và việc duy trì yếu tố con người, sự kết nối chân thật trong các mối quan hệ là một bài toán quan trọng mà mỗi doanh nghiệp cần giải quyết.
Dịch chuyển lao động và yêu cầu mới
Khả năng của AI Agents trong việc đảm nhận và tự động hóa một loạt các nhiệm vụ, từ đơn giản đến phức tạp.
Vì vậy không thể tránh khỏi làm dấy lên những lo ngại về nguy cơ mất việc làm trong một số ngành nghề và vị trí công việc.
Khi các quy trình được tự động hóa hiệu quả hơn bởi AI, nhu cầu về lao động con người cho những công việc đó có thể giảm xuống.
Tuy nhiên, ở một khía cạnh khác, AI cũng có thể đóng vai trò tích cực trong việc giải quyết tình trạng thiếu hụt kỹ năng chuyên môn đang diễn ra ở nhiều ngành công nghiệp.
AI Agents có thể đảm nhận những công việc đòi hỏi chuyên môn cao mà thị trường lao động đang thiếu hụt nhân sự hoặc hỗ trợ các chuyên gia hiện có để nâng cao năng suất và hiệu quả công việc của họ.
Một điểm đáng lưu ý khác là sự phụ thuộc quá nhiều vào các công cụ AI tạo sinh (Generative AI), vốn thường là một phần của các AI Agents phức tạp, có thể dẫn đến nguy cơ suy giảm các kỹ năng nhận thức quan trọng của nhân viên, chẳng hạn như kỹ năng giải quyết vấn đề, tư duy phản biện và khả năng sáng tạo độc lập.
Nếu nhân viên chỉ quen với việc nhận các giải pháp “ăn liền” từ AI mà không tự mình tư duy và tìm tòi, năng lực cốt lõi của họ có thể bị bào mòn theo thời gian.
Do đó, thay vì chỉ tập trung vào nguy cơ mất việc làm, các doanh nghiệp cần có một cách tiếp cận chủ động và chiến lược hơn.
Điều này bao gồm đầu tư vào các chương trình đào tạo lại (reskilling) và nâng cao kỹ năng (upskilling) cho đội ngũ nhân viên hiện có.
Như vậy sẽ giúp họ trang bị những kiến thức và năng lực cần thiết để có thể hợp tác hiệu quả với AI Agents, cũng như đảm nhận các vai trò mới có giá trị gia tăng cao hơn trong một môi trường làm việc ngày càng được số hóa và tự động hóa.
Trách nhiệm giải trình và giám sát
Bản chất tự chủ ngày càng tăng của AI Agents đặt ra những câu hỏi phức tạp và quan trọng về việc ra quyết định và trách nhiệm giải trình.
Khi một AI Agent mắc lỗi, đưa ra quyết định sai lầm hoặc gây ra hậu quả tiêu cực, ai sẽ là người hoặc thực thể phải chịu trách nhiệm?
Liệu đó là nhà phát triển đã tạo ra thuật toán, doanh nghiệp đã triển khai hệ thống, hay chính bản thân AI Agent (một khái niệm hiện vẫn còn gây tranh cãi về mặt pháp lý)?
Sự thiếu minh bạch trong quy trình ra quyết định của nhiều hệ thống AI, thường được ví như một “hộp đen” (black box), càng làm cho việc truy vết nguyên nhân, xác định lỗi và quy trách nhiệm trở nên khó khăn hơn bao giờ hết.
Nhiều nghiên cứu và chuyên gia đã lên tiếng cảnh báo về những nguy cơ tiềm ẩn của việc phát triển các AI Agents hoàn toàn tự chủ mà không có bất kỳ sự kiểm soát hay giám sát nào từ con người.
Rủi ro được cho là sẽ tăng lên tương ứng với mức độ tự chủ của hệ thống.
Khả năng con người có thể can thiệp, giám sát và nói “không” với các quyết định hoặc hành động của AI Agent được coi là một yếu tố thiết yếu để đảm bảo an toàn và sự phù hợp với các giá trị đạo đức.
Do đó, thiết lập các cơ chế “human-in-the-loop” (con người trong vòng lặp).
Khi đó con người đóng vai trò xem xét, phê duyệt hoặc điều chỉnh các quyết định quan trọng do AI Agent đề xuất hoặc thực hiện, được xem là một biện pháp giảm thiểu rủi ro quan trọng và cần thiết.T
rách nhiệm giải trình của hệ thống AI cần được xác định một cách rõ ràng và cụ thể ngay từ giai đoạn thiết kế và phát triển, chứ không phải đợi đến khi sự cố xảy ra.
Thiếu trách nhiệm giải trình của AI Agents không chỉ ảnh hưởng đến uy tín của một doanh nghiệp cụ thể mà còn có thể làm xói mòn niềm tin của công chúng và khách hàng vào công nghệ AI nói chung.
Khi một sự cố nghiêm trọng xảy ra, ví dụ như AI gây ra phân biệt đối xử trên diện rộng hoặc dẫn đến sai sót tài chính lớn, mà không có một cơ chế quy trách nhiệm rõ ràng và minh bạch.
Điều này có thể tạo ra một làn sóng hoài nghi và thậm chí là sợ hãi đối với việc ứng dụng AI trong xã hội.
Hệ quả là các cơ quan quản lý nhà nước có thể sẽ phải áp đặt những quy định chặt chẽ hơn, đôi khi là quá mức cần thiết.
Vì vậy có khả năng kìm hãm sự đổi mới và phát triển của ngành công nghiệp AI, nếu bản thân ngành này không chủ động xây dựng và tuân thủ các tiêu chuẩn đạo đức và trách nhiệm giải trình mạnh mẽ.
Giải pháp quản trị và giảm thiểu rủi ro
| Nhóm Rủi ro Chính | Biện pháp Giảm thiểu Chính | Ví dụ Triển khai/Công cụ Hỗ trợ | Nguồn Tham khảo Chính |
|---|---|---|---|
| Pháp lý & Tuân thủ |
|
https://theinnovator.news/new-report-weighs-the-benefits-and-risks-of-ai-agents/ | |
| An ninh & Bảo mật Thông tin |
|
|
https://www.marktechpost.com/2025/05/02/ai-agents-are-here-so-are-the-threats-unit-42-unveils-the-top-10-ai-agent-security-risks/ |
| Vận hành & Kỹ thuật |
|
|
https://portkey.ai/blog/challenges-faced-by-agentic-ai-companies |
| Đạo đức & Kinh tế – Xã hội |
|
|
https://theinnovator.news/new-report-weighs-the-benefits-and-risks-of-ai-agents/ |
Có thể bạn quan tâm
Liên hệ
Địa chỉ
Tầng 3 Toà nhà VNCC 243A Đê La Thành Str Q. Đống Đa-TP. Hà Nội

