Trí tuệ nhân tạo (AI) là công nghệ giúp máy móc và chương trình máy tính trở nên thông minh, cho phép chúng thực hiện các nhiệm vụ thường đòi hỏi trí thông minh của con người. Nó bao gồm những việc như hiểu ngôn ngữ con người, nhận dạng các mẫu hình, học hỏi từ kinh nghiệm và đưa ra quyết định. Nhìn chung, các hệ thống AI hoạt động bằng cách xử lý một lượng lớn dữ liệu, tìm kiếm các mẫu hình để mô hình hóa quá trình ra quyết định của chính chúng.
Một hệ thống AI hoạt động dựa trên dữ liệu đầu vào, bao gồm các quy tắc và dữ liệu được xác định trước, có thể cung cấp bởi con người hoặc máy móc, để thực hiện các tác vụ cụ thể. Nói cách khác, máy móc nhận dữ liệu đầu vào từ môi trường, sau đó tính toán và suy ra kết quả đầu ra bằng cách xử lý dữ liệu đầu vào thông qua một hoặc nhiều mô hình và thuật toán cơ bản.
Khi khả năng của AI phát triển theo cấp số nhân, những lo ngại sâu sắc về quyền riêng tư, định kiến, bất bình đẳng, an toàn và bảo mật ngày càng gia tăng. Việc xem xét tác động của rủi ro AI đến người dùng là rất quan trọng để đảm bảo việc triển khai các công nghệ này một cách có trách nhiệm và bền vững.
Hơn bao giờ hết, doanh nghiệp ngày nay cần một khuôn khổ để định hướng cho hành trình AI của mình. ISO/IEC 42001, tiêu chuẩn hệ thống quản lý AI đầu tiên trên thế giới, đáp ứng nhu cầu đó.
ISO/IEC 42001 là tiêu chuẩn được công nhận toàn cầu, cung cấp hướng dẫn về quản trị và quản lý công nghệ AI. Tiêu chuẩn này cung cấp phương pháp tiếp cận có hệ thống để giải quyết các thách thức liên quan đến việc triển khai AI trong khuôn khổ hệ thống quản lý được công nhận, bao gồm các lĩnh vực như đạo đức, trách nhiệm giải trình, minh bạch và quyền riêng tư dữ liệu. Được thiết kế để giám sát các khía cạnh khác nhau của trí tuệ nhân tạo, tiêu chuẩn này cung cấp phương pháp tiếp cận tích hợp để quản lý các dự án AI, từ đánh giá rủi ro đến xử lý hiệu quả các rủi ro này.
ISO/IEC 42001 nhằm giúp doanh nghiệp và xã hội nói chung khai thác giá trị tối đa từ việc sử dụng AI một cách an toàn và hiệu quả. Người dùng có thể được hưởng lợi theo nhiều cách: Cải thiện chất lượng, bảo mật, khả năng truy xuất nguồn gốc, tính minh bạch và độ tin cậy của các ứng dụng AI; Nâng cao hiệu quả và đánh giá rủi ro AI; Tự tin hơn vào hệ thống AI; Giảm chi phí phát triển AI; Tuân thủ quy định tốt hơn thông qua các biện pháp kiểm soát cụ thể, chương trình kiểm toán, hướng dẫn phù hợp với luật pháp và quy định mới ban hành.
Tất cả những điều này đều góp phần vào việc sử dụng AI một cách có đạo đức và trách nhiệm cho con người trên toàn thế giới.
ISO/IEC 42001 được xây dựng dựa trên quy trình “Lập kế hoạch - Thực hiện - Kiểm tra - Hành động” nhằm thiết lập, triển khai, duy trì và cải tiến liên tục trí tuệ nhân tạo. Cách tiếp cận này rất quan trọng vì nhiều lý do, đầu tiên nó đảm bảo giá trị của AI đối với sự tăng trưởng được công nhận và mức độ giám sát phù hợp được áp dụng. Thứ hai, hệ thống quản lý cho phép tổ chức chủ động điều chỉnh cách tiếp cận của mình cho phù hợp với sự phát triển theo cấp số nhân của công nghệ. Cuối cùng, nó khuyến khích các tổ chức tiến hành đánh giá rủi ro AI và xác định các hoạt động xử lý rủi ro AI theo định kỳ.
Với việc AI được áp dụng nhanh chóng trên toàn thế giới, ISO/IEC 42001 sẽ trở thành phần không thể thiếu cho sự thành công của một tổ chức, tiếp bước các tiêu chuẩn hệ thống quản lý khác như ISO 9001 về chất lượng, ISO 14001 về môi trường và ISO/IEC 27001 về bảo mật CNTT.
Theo vietq.vn