Sự bùng nổ của Trí tuệ nhân tạo (AI) đã và đang tạo ra những bước ngoặt vĩ đại cho sự phát triển của nhân loại. Tuy nhiên, song hành cùng những cơ hội to lớn là những rủi ro tiềm ẩn về đạo đức, an ninh mạng và quyền riêng tư. Để tạo ra một hành lang pháp lý và chuẩn mực phát triển bền vững, ngày 10/3/2026, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng đã chính thức ký ban hành Thông tư số 05/2026/TT-BKHCN,.
Văn bản này chính thức ban hành Khung đạo đức trí tuệ nhân tạo quốc gia, đánh dấu một bước tiến mang tính nền tảng trong việc quản trị và định hướng công nghệ AI tại Việt Nam. Thông tư 05/2026/TT-BKHCN có hiệu lực thi hành ngay từ ngày 10/03/2026. Bài viết sẽ phân tích toàn diện, chi tiết từng góc độ của Thông tư này nhằm giúp các cơ quan, tổ chức, doanh nghiệp và người dân nắm bắt một cách chuẩn xác nhất.
Đạo đức trí tuệ nhân tạo là gì và Phạm vi điều chỉnh của Thông tư 05/2026/TT-BKHCN
Khái niệm “Đạo đức trí tuệ nhân tạo” lần đầu tiên được định nghĩa một cách chính thức và toàn diện trong văn bản quy phạm pháp luật. Theo đó, đạo đức trí tuệ nhân tạo được hiểu là một hệ giá trị, nguyên tắc và chuẩn mực mang tính định hướng cho toàn bộ vòng đời của hệ thống AI,. Vòng đời này bao gồm các giai đoạn: nghiên cứu, phát triển, cung cấp, triển khai và sử dụng trí tuệ nhân tạo.
Mục tiêu tối thượng của khung đạo đức này là bảo đảm sự tôn trọng đối với con người, bảo vệ quyền con người, đề cao lợi ích công cộng và hướng tới sự phát triển bền vững.
Về đối tượng áp dụng, Thông tư 05/2026/TT-BKHCN tạo ra một cơ chế áp dụng mang tính phân tầng rõ rệt:
- Nhóm bắt buộc áp dụng: Các quy định này mang tính bắt buộc đối với cơ quan quản lý nhà nước, cũng như các tổ chức, cá nhân tham gia dưới vai trò là nhà phát triển, nhà cung cấp, bên triển khai hoặc người sử dụng hệ thống trí tuệ nhân tạo phục vụ trực tiếp cho hoạt động quản lý nhà nước hoặc cung cấp dịch vụ công,. Điều này đảm bảo rằng khu vực công sẽ đi tiên phong trong việc chuẩn hóa và minh bạch hóa công nghệ.
- Nhóm khuyến khích áp dụng: Đối với các tổ chức, cá nhân Việt Nam và cả các tổ chức, cá nhân nước ngoài có các hoạt động nghiên cứu, phát triển, cung cấp, triển khai hoặc sử dụng hệ thống trí tuệ nhân tạo tại lãnh thổ Việt Nam, Nhà nước đặc biệt khuyến khích việc tự nguyện áp dụng Khung đạo đức này.
Phân tích chi tiết 04 Nhóm Nguyên tắc cốt lõi của Khung đạo đức trí tuệ nhân tạo quốc gia
Khung đạo đức trí tuệ nhân tạo quốc gia được cấu trúc dựa trên 4 nhóm nguyên tắc chính, bao quát toàn bộ các khía cạnh từ kỹ thuật, quyền con người đến lợi ích xã hội.
Nguyên tắc 1: Bảo đảm an toàn, độ tin cậy và hoàn toàn không gây hại
Hệ thống AI phải được thiết kế và vận hành sao cho không gây bất cứ tổn hại nào đến tính mạng, sức khỏe, danh dự, nhân phẩm cũng như đời sống tinh thần của con người.
- Thiết kế an toàn ngay từ đầu: Các tổ chức và cá nhân phát triển AI bị buộc phải có trách nhiệm xác định trước các kịch bản rủi ro, những tình huống hệ thống có thể gây hại đối với tính mạng, sức khỏe, danh dự, nhân phẩm của người dùng và từ đó xây dựng các biện pháp phòng ngừa từ trong trứng nước.
- Độ tin cậy và chất lượng cao: Yêu cầu thiết lập các tiêu chí khắt khe về chất lượng dữ liệu đầu vào, mô hình và kết quả đầu ra. Quan trọng hơn, trước khi đưa vào triển khai, hệ thống phải trải qua các cơ chế kiểm thử, xác nhận và kiểm định nội bộ nghiêm ngặt.
- Kiểm soát của con người là tối thượng: Không một hệ thống AI nào được phép hoạt động hoàn toàn ngoài tầm kiểm soát. Tổ chức, cá nhân phải xây dựng cơ chế giám sát và can thiệp của con người sao cho phù hợp với mức độ ảnh hưởng của hệ thống đó. Việc duy trì sự kiểm soát và khả năng can thiệp của con người đối với mọi quyết định, hành vi của AI là bắt buộc,.
- Bảo vệ an ninh mạng cấp độ cao: Đây là điểm nhấn quan trọng khi Thông tư trực tiếp đề cập đến các rủi ro tấn công đặc thù của AI. Hệ thống phải được bảo vệ để phòng ngừa, ngăn chặn các hành vi xâm nhập, lạm dụng hệ thống. Tổ chức phải bảo đảm tính bí mật, toàn vẹn và sự sẵn sàng của cả dữ liệu, thuật toán và hạ tầng.
Nguyên tắc 2: Tôn trọng quyền con người, bảo đảm công bằng, minh bạch và không phân biệt đối xử
Đây là lằn ranh đạo đức nhằm ngăn chặn việc AI trở thành công cụ vi phạm quyền cá nhân.
- Tôn trọng quyền con người và công dân: Hệ thống AI phải được rà soát để tuyệt đối không xâm phạm quyền riêng tư, dữ liệu cá nhân, sự tự do ý chí và quyền tiếp cận thông tin của người dân, cũng như quyền được đối xử bình đẳng.
- Hạn chế và giảm thiểu thiên lệch: Tổ chức phát triển phải sử dụng các biện pháp kỹ thuật và quản lý để nhận diện, giảm thiểu các loại thiên lệch dữ liệu, thiên lệch mô hình và thiên lệch trong vận hành,. Đặc biệt, cần phải xem xét đầy đủ mọi tác động tiềm ẩn đối với những nhóm dễ bị tổn thương trong xã hội như trẻ em, người cao tuổi, người khuyết tật và các nhóm yếu thế khác.
- Tính minh bạch: Khi ứng dụng AI tương tác với con người, phải có thông báo phù hợp để người dùng biết họ đang sử dụng trí tuệ nhân tạo. Các thông tin về mục tiêu, phạm vi hoạt động, giới hạn của hệ thống phải được cung cấp ở mức độ hợp lý, bảo đảm không gây hiểu nhầm hoặc thổi phồng quá mức về năng lực thực sự của hệ thống.
- Trách nhiệm giải trình rạch ròi: Tổ chức, cá nhân phải chuẩn bị sẵn sàng các tài liệu giải thích, các bằng chứng về quá trình thiết kế, huấn luyện và kiểm thử hệ thống. Phải xác định và phân định rõ ràng chủ thể nào (con người, tổ chức) sẽ phải đứng ra chịu trách nhiệm giải trình đối với các quyết định, kết quả do hệ thống AI tạo ra,.
Nguyên tắc 3: Thúc đẩy hạnh phúc, thịnh vượng và sự phát triển bền vững
Công nghệ trí tuệ nhân tạo sinh ra là để phục vụ lợi ích chung của cộng đồng và sự tiến bộ của xã hội.
- Phục vụ lợi ích xã hội: Tổ chức, cá nhân phải xác định rõ được những giá trị gia tăng, lợi ích công cộng và tác động tích cực mà hệ thống AI mang lại,. Nếu có phát sinh tác động tiêu cực, phải có ngay phương án xử lý, khắc phục trước khi triển khai thực tế.
- Phát triển bao trùm và thân thiện: Thiết kế giao diện hệ thống phải hướng đến sự dễ tiếp cận, dễ sử dụng, nhằm mục tiêu tối thượng là thu hẹp khoảng cách số giữa các vùng miền và giữa các nhóm dân cư khác nhau.
- Bền vững và bảo vệ môi trường (AI Xanh): Trong suốt vòng đời phát triển và triển khai hệ thống, tổ chức phải có trách nhiệm xem xét mức độ tiêu thụ năng lượng, tài nguyên tính toán và các tác động đến môi trường sinh thái. Ưu tiên lựa chọn hạ tầng, quy trình vận hành và giải pháp kỹ thuật có khả năng tiết kiệm năng lượng, hạn chế phát thải,.
- Phù hợp với văn hóa Việt Nam: AI phải được thiết kế theo hướng phù hợp với các chuẩn mực đạo đức xã hội và đặc biệt là bản sắc văn hóa Việt Nam,. Cấm tuyệt đối việc tạo ra các nội dung mang tính kỳ thị, phân biệt đối xử hoặc gây ảnh hưởng tiêu cực đến lợi ích của cộng đồng.
Nguyên tắc 4: Khuyến khích đổi mới sáng tạo và trách nhiệm xã hội
Việt Nam luôn chào đón và tạo không gian cho sự phát triển công nghệ mới, nhưng sự đổi mới đó phải đi kèm với trách nhiệm.
- Không ngừng đổi mới sáng tạo: Việc triển khai thử nghiệm, thí điểm và mở rộng các ứng dụng trí tuệ nhân tạo được khuyến khích mạnh mẽ nhưng phải theo hướng có trách nhiệm. Thúc đẩy mạnh mẽ các hoạt động nghiên cứu mở, chia sẻ tri thức cộng đồng phù hợp với pháp luật và gắn liền với việc bảo vệ quyền sở hữu trí tuệ,.
- Đề cao trách nhiệm xã hội: Cần phân định rõ ràng trách nhiệm của từng chủ thể tham gia vào vòng đời của hệ thống AI. Đặc biệt, tổ chức phải bảo đảm có một đầu mối rõ ràng để tiếp nhận, xử lý các khiếu nại từ người dùng và khắc phục hậu quả nếu có sự cố xảy ra.
- Tăng cường đào tạo và hợp tác quốc tế: Phải chú trọng công tác đào tạo, nâng cao nhận thức về rủi ro đạo đức, kỹ năng sử dụng trí tuệ nhân tạo an toàn cho đội ngũ cán bộ, người lao động,. Không ngừng hợp tác quốc tế, học hỏi, tham gia vào các sáng kiến, các bộ quy tắc ứng xử và tiêu chuẩn quốc tế về đạo đức AI.
Hướng dẫn sử dụng Khung đạo đức theo từng nhóm chủ thể cụ thể
Để hiện thực hóa các nguyên tắc trên, Phụ lục I ban hành kèm Thông tư 05/2026/TT-BKHCN đã cụ thể hóa trách nhiệm, nghĩa vụ của 03 nhóm chủ thể tham gia vào chuỗi cung ứng và sử dụng AI.
Đối với người sử dụng hệ thống trí tuệ nhân tạo
- Định vị vai trò công cụ: Người dùng phải xác định rõ ràng AI chỉ là một “công cụ hỗ trợ”. Tuyệt đối không được dùng AI để thay thế hoàn toàn những phán đoán, tư duy của con người đối với các quyết định mang tính chất quan trọng.
- Kiểm soát thông tin đầu vào và đầu ra: Không được phép nhập, chia sẻ dữ liệu cá nhân, bí mật đời tư, thông tin mật hoặc bí mật kinh doanh vào hệ thống AI khi chưa được phép hoặc chưa có biện pháp kiểm soát an toàn. Ở chiều ngược lại, người dùng phải biết tự kiểm chứng tính chính xác của thông tin, khuyến nghị hoặc kết quả do AI đầu ra, đặc biệt là các nội dung nhạy cảm liên quan đến sức khỏe, y tế, tài chính, pháp lý, hay danh dự nhân phẩm.
- Tuân thủ pháp luật: Cấm sử dụng AI để tạo ra hoặc phát tán những nội dung sai sự thật, thao túng tâm lý, phân biệt đối xử, xâm phạm quyền riêng tư, quyền sở hữu trí tuệ của người khác. Người dùng cũng phải chủ động nâng cao năng lực, kiến thức sử dụng an toàn và sử dụng các kênh khiếu nại khi phát hiện hệ thống AI có dấu hiệu vi phạm.
Đối với nhà phát triển, nhà cung cấp, bên triển khai AI
- Lồng ghép đạo đức từ gốc: Nhóm này có trách nhiệm lồng ghép sự cân nhắc về đạo đức vào trong toàn bộ vòng đời của hệ thống, từ khâu xác định mục tiêu, thiết kế, thu thập dữ liệu, huấn luyện đến vận hành, cải tiến; phải ưu tiên giải quyết các vấn đề đạo đức ngay từ giai đoạn đầu tiên.
- Cam kết minh bạch và an toàn: Phải công khai các thông tin hợp lý về mục tiêu, giới hạn của hệ thống, không được thổi phồng năng lực thực tế. Phải chủ động nhận diện và loại bỏ các loại thiên lệch dữ liệu, đồng thời bảo đảm có sự đa dạng hóa trong tập dữ liệu cũng như trong chính nhóm nhân sự phát triển.
- Bảo vệ dữ liệu và giải trình: Áp dụng chặt chẽ các biện pháp bảo vệ quyền riêng tư, an ninh thông tin mạng, kiểm soát truy cập và lưu vết dữ liệu. Thiết lập cơ chế giải trình minh bạch, phân định rõ trách nhiệm của các nhà thầu, đối tác thứ ba trong chuỗi cung ứng. Phải thực hiện ban hành Bộ quy tắc đạo đức trí tuệ nhân tạo áp dụng nội bộ hoặc theo nhóm ngành, lĩnh vực.
Đối với cơ quan nhà nước, tổ chức cung cấp dịch vụ công
- Vai trò ra quyết định cuối cùng: Cơ quan nhà nước phải lồng ghép Khung đạo đức này vào ngay từ quá trình xây dựng, mua sắm hoặc thuê dịch vụ AI. Một nguyên tắc bất di bất dịch là: Quyết định cuối cùng luôn phải thuộc về thẩm quyền của con người theo đúng quy định pháp luật. Hệ thống AI phục vụ hành chính công không bao giờ được phép thay thế hoàn toàn trách nhiệm của người cán bộ ra quyết định.
- Minh bạch với người dân: Phải thực hiện công khai, minh bạch việc ứng dụng AI để người dân được biết, được giải thích ở một mức độ hợp lý nhất định. Đồng thời phải thiết lập các cơ chế phản ánh, khiếu nại dành cho người dân.
- Đánh giá tác động liên tục: Bảo đảm việc tham vấn các bên liên quan, đặc biệt là các nhóm đối tượng dễ bị tổn thương. Thường xuyên đánh giá, theo dõi các tác động về mặt đạo đức trong quá trình vận hành hệ thống, và tích hợp quá trình này với các báo cáo hiện có để hạn chế sự trùng lặp, rườm rà về thủ tục.
Công cụ đánh giá tuân thủ và Lộ trình thực hiện, cập nhật của Bộ Khoa học và Công nghệ
Để tránh tình trạng “luật nằm trên giấy”, Thông tư 05/2026/TT-BKHCN đi kèm với Phụ lục II – Hướng dẫn Mẫu phiếu tự đánh giá tuân thủ Khung đạo đức trí tuệ nhân tạo quốc gia.
Mẫu phiếu tự đánh giá này là một công cụ đắc lực, hệ thống hóa chi tiết 4 nguyên tắc cốt lõi thành các tiêu chí rõ ràng như: Có cơ chế kiểm thử, giám sát chất lượng không? Có cơ chế can thiệp của con người chưa? Có quy trình tiếp nhận phản ánh sự cố không?. Hệ thống cũng yêu cầu đánh giá việc giảm thiểu thiên lệch dữ liệu, bảo vệ môi trường, mục tiêu giá trị gia tăng xã hội và có phân công đầu mối giải trình rõ ràng hay chưa.
Kết quả đánh giá sẽ dựa trên mức độ đáp ứng (Đạt/Chưa đạt/Chưa áp dụng), yêu cầu phải có minh chứng rõ ràng, vạch ra các hành động khắc phục cụ thể nếu có, và ấn định đích danh đơn vị, cá nhân phụ trách cùng thời hạn hoàn thành. Dựa vào kết quả đó, đơn vị sẽ đưa ra kết luận kiến nghị về việc nên duy trì, điều chỉnh, tạm dừng hay mở rộng triển khai hệ thống AI.
Về khâu tổ chức thực hiện và lộ trình cập nhật: Công nghệ AI luôn phát triển với tốc độ chóng mặt, do đó, Điều 5 của Thông tư quy định rõ Khung đạo đức này sẽ không cố định mà được rà soát, cập nhật định kỳ 03 năm một lần, hoặc cập nhật ngay lập tức nếu có thay đổi lớn, mang tính đột phá về mặt công nghệ, pháp luật và thực tiễn quản lý nhà nước,.
Bộ Khoa học và Công nghệ đóng vai trò là nhạc trưởng, chủ trì tổ chức triển khai Thông tư này,. Nhằm mục đích số hóa và giảm tải gánh nặng thủ tục, Bộ có trách nhiệm xây dựng và vận hành một nền tảng số cùng công cụ trắc nghiệm tự động,. Công cụ số hóa này sẽ hỗ trợ đắc lực cho các bộ, ngành, địa phương và các cộng đồng doanh nghiệp công nghệ trong việc tự đo lường, đánh giá mức độ tuân thủ đạo đức AI một cách tiện lợi, khoa học và minh bạch nhất,.
Bất kỳ tổ chức, cá nhân nào trong quá trình thực hiện gặp vướng mắc, khó khăn đều có quyền phản ánh trực tiếp về Bộ Khoa học và Công nghệ để cơ quan này xem xét, nghiên cứu, kịp thời sửa đổi và bổ sung cho phù hợp với hơi thở của thời đại.
Lời kết
Bằng cách thiết lập những hành lang bảo vệ vững chắc về quyền con người, an toàn dữ liệu và trách nhiệm giải trình, đồng thời không tạo ra rào cản cho sự sáng tạo, Việt Nam đang tiến tới xây dựng một hệ sinh thái Trí tuệ nhân tạo phát triển rực rỡ, thịnh vượng, bền vững, lấy con người làm trung tâm và đậm đà bản sắc văn hóa dân tộc. Mọi cơ quan, tổ chức, cá nhân tham gia vào lĩnh vực công nghệ mũi nhọn này cần nhanh chóng nắm bắt, cập nhật nội dung Thông tư để định hướng sự phát triển của mình theo chuẩn mực pháp luật và xã hội hiện hành.
Bài viết có sự tham khảo từ: https://thuvienphapluat.vn/van-ban/Doanh-nghiep/Nghi-dinh-68-2026-ND-CP-chinh-sach-thue-va-quan-ly-thue-doi-voi-ho-kinh-doanh-ca-nhan-kinh-doanh-685358.aspx
Tham khảo thêm bài viết của chúng tôi: https://htllaw.com.vn/viet-nam-gia-nhap-cong-uoc-apostille-hop-phap-hoa