Ứng dụng trí tuệ nhân tạo tạo sinh trong học tập và vấn đề liêm chính học thuật trong giáo dục đại học Việt Nam: tiếp cận khung “vùng xám” đạo đức

Application of generative artificial intelligence in learning and academic integrity issues in Vietnamese higher education: An ethical “gray zone” framework approach

TS. Lê Thị Hằng
Học viện Hành chính và Quản trị công
Phạm Mạnh Quân
Hoàng Thị Hà Diệp
Sinh viên Học viện Hành chính và Quản trị công

(Quanlynhanuoc.vn) – Sự phát triển nhanh chóng của trí tuệ nhân tạo tạo sinh (Generative AI) đang tạo ra những biến đổi sâu sắc trong hoạt động dạy và học trong giáo dục đại học. Bên cạnh các lợi ích như hỗ trợ học tập và cá nhân hóa tri thức, công nghệ này cũng đặt ra nhiều thách thức đối với liêm chính học thuật khi các chuẩn mực và quy định chưa theo kịp thực tiễn. Trên cơ sở phân tích tài liệu và đối chiếu với bối cảnh chính sách tại Việt Nam, bài viết xây dựng khung nhận diện “vùng xám” đạo đức trong ứng dụng AI vào học tập, tập trung vào các vấn đề về minh bạch, độ tin cậy tri thức, dữ liệu cá nhân, công bằng đánh giá và tự chủ tư duy của người học. Từ đó, nghiên cứu đề xuất 5 nguyên tắc thực hành AI có trách nhiệm và các khuyến nghị quản trị đa cấp, hướng tới cân bằng giữa đổi mới công nghệ và bảo đảm liêm chính học thuật trong giáo dục đại học Việt Nam.

Từ khóa: Trí tuệ nhân tạo tạo sinh; liêm chính học thuật; đạo đức số; bảo vệ dữ liệu cá nhân; giáo dục đại học; Việt Nam.

Abstract: The rapid advancement of generative artificial intelligence (Generative AI) is bringing about profound changes in teaching and learning activities within higher education. While offering significant benefits such as enhanced learning support and personalized knowledge acquisition, this technology also poses considerable challenges to academic integrity, as existing norms and regulations struggle to keep pace with evolving practices. Based on document analysis and a review of Vietnam’s current policy context, this article proposes a framework for identifying ethical “gray zones” in the application of AI in learning. It focuses on key issues, including transparency, the reliability of knowledge, personal data protection, fairness in assessment, and learners’ cognitive autonomy. Accordingly, the study puts forward five principles for responsible AI use, along with multi-level governance recommendations aimed at balancing technological innovation with the safeguarding of academic integrity in Vietnam’s higher education system.

Keywords: Generative artificial intelligence; academic integrity; digital ethics; personal data protection; higher education; Vietnam.

1. Đặt vấn đề

Generative AI đang ngày càng trở thành công cụ phổ biến trong môi trường giáo dục đại học, hỗ trợ người học trong việc tìm kiếm thông tin, gợi ý cấu trúc bài viết và nâng cao hiệu quả học tập. Tuy nhiên, việc ứng dụng công nghệ này cũng làm gia tăng nguy cơ gian lận học thuật, suy giảm năng lực tư duy phản biện; đồng thời, đặt ra các vấn đề đạo đức mới liên quan đến tính minh bạch, quyền sở hữu trí tuệ và bảo vệ dữ liệu cá nhân.

Trong bối cảnh đó, ranh giới giữa “công cụ hỗ trợ học tập hợp pháp” và “sự thay thế tư duy dẫn đến gian lận học thuật” ngày càng trở nên khó phân định. Điều này đặt ra yêu cầu cần nhận diện và quản trị các tình huống đạo đức chưa rõ ràng trong quá trình ứng dụng Generative AI vào học tập tại Việt Nam. Trên cơ sở đó, bài viết hướng tới xây dựng khung phân tích “vùng xám” đạo đức, đồng thời, đề xuất các nguyên tắc thực hành AI có trách nhiệm trong giáo dục đại học Việt Nam.

2. Bối cảnh chính sách và đạo đức AI trong giáo dục đại học Việt Nam

Việt Nam đang đẩy mạnh chuyển đổi số và ứng dụng AI trong nhiều lĩnh vực, trong đó giáo dục đại học được xác định là một không gian trọng yếu trong phát triển nguồn nhân lực chất lượng cao. Các định hướng chính sách liên quan đến AI và đạo đức công nghệ có thể được khái quát qua ba trụ cột cơ bản:

Thứ nhất, về định hướng chiến lược, Đảng và Nhà nước nhấn mạnh yêu cầu phát triển khoa học – công nghệ gắn với bảo đảm an ninh dữ liệu, an toàn thông tin và trách nhiệm xã hội trong kỷ nguyên số. Định hướng này được thể hiện rõ trong các văn kiện về chuyển đổi số và phát triển khoa học – công nghệ, trong đó nhấn mạnh vai trò của công nghệ số như một động lực then chốt cho đổi mới giáo dục và đào tạo1.

Thứ hai, về hành lang pháp lý, Việt Nam đã từng bước hoàn thiện hệ thống quy định liên quan đến quản trị dữ liệu và công nghệ số. Nghị định số 13/2023/NĐ-CP ngày 17/04/2023 của Chính phủ về bảo vệ dữ liệu cá nhân đã thiết lập các nguyên tắc quan trọng, như: tính hợp pháp, minh bạch và trách nhiệm trong xử lý dữ liệu, qua đó tạo cơ sở pháp lý cho việc quản trị rủi ro khi người học sử dụng các nền tảng AI có hoạt động thu thập và xử lý dữ liệu2. Bên cạnh đó, các định hướng phát triển AI quốc gia cũng nhấn mạnh yêu cầu phát triển và ứng dụng AI theo hướng an toàn, có trách nhiệm và lấy con người làm trung tâm.

Thứ ba, về chuẩn mực đạo đức, các khuyến nghị quốc tế đã đặt ra những nguyên tắc nền tảng cho việc sử dụng AI trong giáo dục, bao gồm: minh bạch, trách nhiệm giải trình, công bằng và bảo đảm quyền tự chủ của người học. UNESCO khẳng định việc ứng dụng AI trong giáo dục cần hướng tới tăng cường năng lực con người, thay vì thay thế vai trò nhận thức của người học, đồng thời yêu cầu các cơ sở giáo dục xây dựng cơ chế quản trị phù hợp với bối cảnh công nghệ mới3.

Ngoài ra, trong lĩnh vực giáo dục đại học, các nghiên cứu quốc tế cũng cảnh báo về những rủi ro đối với liêm chính học thuật trong bối cảnh AI tạo sinh ngày càng phổ biến, đặc biệt liên quan đến gian lận học thuật, sai lệch tri thức và suy giảm năng lực tư duy phản biện của người học (Cotton et al., 2023)4.

Như vậy, mặc dù hệ thống chính sách và chuẩn mực đạo đức về AI đã bước đầu hình thành, thách thức cốt lõi hiện nay không chỉ nằm ở việc hoàn thiện khung pháp lý mà còn ở khả năng chuyển hóa các nguyên tắc này thành quy định học thuật cụ thể và định hướng hành vi đạo đức của người học trong môi trường giáo dục đại học.

3. Khung “vùng xám” trong ứng dụng AI vào học tập

Trên cơ sở tổng hợp các chuẩn mực về liêm chính học thuật, đạo đức trí tuệ nhân tạo và thực tiễn sử dụng AI trong giáo dục đại học, nghiên cứu xác định rằng “vùng xám” trong ứng dụng AI vào học tập không nằm ở bản thân công nghệ, mà ở ranh giới giữa hỗ trợ học thuật hợp pháp và sự thay thế, lấn át vai trò tư duy của người học. Nhận định này cũng phù hợp với các nghiên cứu quốc tế khi cho rằng Generative AI làm “mờ hóa” ranh giới giữa hỗ trợ học tập và gian lận học thuật5. Vùng xám thường phát sinh trong những tình huống mà quy chế đào tạo, quy định đánh giá hoặc chuẩn mực đạo đức học thuật chưa được cập nhật kịp thời, dẫn đến khó khăn trong việc phân định đúng – sai, được phép – không được phép. Trên cơ sở đó, có thể nhận diện “vùng xám” thông qua năm nhóm vấn đề cốt lõi sau:

Thứ nhất, về mức độ khai báo và minh bạch trong sử dụng AI.

Tình huống điển hình là người học sử dụng AI để viết phần lớn hoặc toàn bộ bài luận, tiểu luận, báo cáo học phần nhưng không khai báo hoặc khai báo không đầy đủ. Đây được coi là “vùng xám” khi người học có thể cho rằng AI chỉ đóng vai trò hỗ trợ, trong khi sản phẩm học thuật thực tế phản ánh năng lực của hệ thống nhiều hơn năng lực cá nhân. Rủi ro chủ yếu là gian lận học thuật và sai lệch trong đánh giá năng lực, làm suy giảm độ tin cậy của kết quả đào tạo. Chuẩn mực liên quan là nguyên tắc trung thực và trách nhiệm giải trình trong liêm chính học thuật. Do đó, cần xác định rõ giới hạn sử dụng AI, đồng thời, chuyển trọng tâm từ đánh giá sản phẩm sang đánh giá quá trình học tập, thông qua nhật ký học tập, thuyết trình và phản biện trực tiếp. Đối với nhóm này, mức độ yêu cầu khai báo AI cần ở mức cao.

Thứ hai, về độ tin cậy và tính xác thực của tri thức do AI tạo ra.

Nhiều nghiên cứu chỉ ra rằng, AI có thể tạo ra “hallucinations” – tức thông tin sai lệch nhưng có vẻ hợp lý, bao gồm cả trích dẫn không tồn tại6. Người học nếu thiếu kỹ năng kiểm chứng có thể vô tình sử dụng các nguồn này. Rủi ro là sai lệch tri thức và suy giảm chất lượng học thuật. Vì vậy, cần yêu cầu kiểm chứng nguồn, ưu tiên sử dụng cơ sở dữ liệu học thuật chính thống và tăng cường đào tạo năng lực đánh giá thông tin. Mức độ khai báo AI ở mức trung bình đến cao.

Thứ ba, về dữ liệu cá nhân và dữ liệu nhạy cảm.

Việc nhập dữ liệu cá nhân hoặc thông tin nội bộ vào các nền tảng AI có thể dẫn đến rủi ro rò rỉ thông tin. Theo Nghị định số 13/2023/NĐ-CP, dữ liệu cá nhân phải được xử lý trên cơ sở hợp pháp, minh bạch và có sự kiểm soát của chủ thể dữ liệu7. Vì vậy, cần thực hiện ẩn danh hóa dữ liệu; đồng thời, chỉ sử dụng các công cụ AI đã được cơ sở đào tạo phê duyệt và có chính sách bảo mật rõ ràng. Mức độ khai báo AI trong trường hợp này ở mức trung bình, gắn với trách nhiệm giải trình về dữ liệu đầu vào.

Thứ tư, về công bằng và tính chính xác trong đánh giá học tập.

Một xu hướng đáng lưu ý là việc lạm dụng các công cụ phát hiện AI như bằng chứng gần như tuyệt đối để kết luận hành vi gian lận học thuật. Đây là “vùng xám” do các công cụ này vẫn tồn tại sai số nhất định. Rủi ro chính là oan sai trong đánh giá, phát sinh khiếu nại và tranh chấp học vụ, làm suy giảm niềm tin của người học. Chuẩn mực liên quan là nguyên tắc đánh giá dựa trên năng lực thực chất và bảo đảm công bằng học thuật. Khuyến nghị là không sử dụng kết quả phát hiện AI như bằng chứng duy nhất, mà chỉ coi là công cụ hỗ trợ, kết hợp với phỏng vấn, vấn đáp và đánh giá quá trình. Mức độ khai báo AI trong nhóm này ở mức trung bình.

Thứ năm, về tự chủ tư duy và năng lực nhận thức của người học.

Tình huống giảm tải nhận thức xảy ra khi người học giao phó phần lớn hoạt động tư duy cho AI, dẫn đến suy giảm năng lực phản biện và sáng tạo cá nhân. Rủi ro cốt lõi là làm xói mòn mục tiêu của giáo dục đại học, vốn hướng tới hình thành năng lực tư duy độc lập. Chuẩn mực liên quan là nguyên tắc “con người trong vòng lặp”, khẳng định vai trò trung tâm của con người trong các quyết định học thuật. Do đó, cần yêu cầu người học giải thích lập luận, nêu quan điểm cá nhân và phản biện các gợi ý của AI. Mức độ khai báo AI ở nhóm này ở mức thấp đến trung bình, nhưng yêu cầu cao về minh chứng tư duy cá nhân.

Bảng dưới đây tổng hợp các tình huống điển hình, rủi ro và gợi ý thực hành nhằm quản trị “vùng xám” đạo đức trong ứng dụng AI vào học tập.

Bảng 1. Khung nhận diện “vùng xám” đạo đức trong ứng dụng AI vào học tập

Nhóm vấn đềTình huống “vùng xám”    Rủi roChuẩn mực liên quanKhuyến nghịMức khai báo AI
Liêm chính học thuậtAI viết phần lớn bài luậnGian lận, đánh giá sai năng lựcQuản trị liêm chínhGiới hạn phạm vi; đánh giá quá trìnhCao
Độ tin cậyAI tạo trích dẫn giảSai lệch tri thứcKiểm chứng nguồnĐối chiếu nguồn gốcTrung bình–Cao
Dữ liệu cá nhânNhập dữ liệu nhạy cảmRò rỉ, vi phạm pháp luậtBảo vệ dữ liệuẨn danh hóa; dùng công cụ được phê duyệtTrung bình
Công bằng đánh giáLệ thuộc công cụ phát hiện AIOan sai, khiếu nạiĐánh giá dựa năng lựcKhông dùng làm bằng chứng duy nhấtTrung bình
Tự chủ tư duyGiảm tải  nhận thứcSuy giảm tư duy phản biệnCon người trong vòng lặpYêu cầu giải thích lập luậnThấp–Trung bình
Nhóm tác giả thực hiện, 2025.

4. Giải pháp và khuyến nghị quản trị đạo đức trong ứng dụng AI tạo sinh trong giáo dục đại học

4.1. Hoàn thiện khung thể chế và định hướng quản trị AI trong giáo dục đại học

Trong bối cảnh Generative AI ngày càng được sử dụng rộng rãi trong hoạt động học tập và nghiên cứu, các thách thức đạo đức không còn là vấn đề mang tính lựa chọn cá nhân, mà đã trở thành một nội dung trọng yếu của quản trị giáo dục đại học. UNESCO khẳng định rằng, AI trong giáo dục chỉ có thể phát huy giá trị tích cực khi được triển khai trên cơ sở các nguyên tắc minh bạch, trách nhiệm giải trình và bảo đảm vai trò trung tâm của con người trong quá trình kiến tạo tri thức8.

Do đó, việc quản trị “vùng xám” đạo đức trong ứng dụng AI không thể chỉ dừng lại ở các biện pháp cấm đoán hoặc khuyến nghị mang tính định tính, mà cần được thể chế hóa thành một hệ thống giải pháp đồng bộ trên nhiều cấp độ, bao gồm: Nhà nước, cơ sở giáo dục đại học và người học. Cách tiếp cận này cũng phù hợp với xu hướng quản trị AI hiện nay, trong đó nhấn mạnh mô hình quản trị đa tầng và dựa trên rủi ro9.

Từ góc độ quản lý nhà nước, trọng tâm không phải là hạn chế hay loại bỏ AI khỏi môi trường giáo dục, mà là xây dựng cơ chế quản trị linh hoạt dựa trên nhận diện “vùng xám” đạo đức. Cách tiếp cận này cho phép các cơ sở giáo dục đại học thiết lập quy định phù hợp với mức độ can thiệp của AI trong từng hoạt động học thuật, thay vì áp dụng các biện pháp cực đoan như cấm hoàn toàn hoặc buông lỏng kiểm soát. Đồng thời, các định hướng chính sách quốc gia cũng nhấn mạnh yêu cầu phát triển và ứng dụng AI theo hướng an toàn, có trách nhiệm và lấy con người làm trung tâm10.

Như các khuyến nghị quốc tế đã chỉ ra, AI chỉ thực sự đóng góp tích cực cho giáo dục khi được sử dụng nhằm hỗ trợ và củng cố năng lực tư duy độc lập, thay vì thay thế vai trò nhận thức của người học. Vì vậy, quản trị AI trong giáo dục đại học Việt Nam cần được xác định là một nhiệm vụ mang tính chiến lược, gắn với bảo đảm liêm chính học thuật và nâng cao chất lượng nguồn nhân lực trong bối cảnh chuyển đổi số.

4.2. Hàm ý quản trị: từ “cấm đoán” sang quản trị linh hoạt dựa trên vùng xám đạo đức

Ở cấp độ vi mô, người học là chủ thể trực tiếp đưa ra quyết định liên quan đến việc sử dụng AI trong học tập. Do đó, quản trị đạo đức AI không thể chỉ dựa vào các quy định mang tính áp đặt từ bên ngoài, mà cần được chuyển hóa thành chuẩn mực nội tại và ý thức tự giác của người học. Cách tiếp cận này phù hợp với các khuyến nghị quốc tế, trong đó nhấn mạnh vai trò chủ động và trách nhiệm cá nhân trong sử dụng AI một cách có đạo đức.

Trên cơ sở đó, nghiên cứu đề xuất năm nguyên tắc thực hành AI có trách nhiệm như sau:

Thứ nhất, bảo đảm quyền kiểm soát của con người đối với quá trình học thuật. AI chỉ nên đóng vai trò công cụ hỗ trợ, trong khi ý tưởng, lập luận và kết luận phải xuất phát từ tư duy độc lập của người học. Nguyên tắc này phản ánh yêu cầu “con người trong vòng lặp” (human-in-the-loop), vốn được coi là nền tảng trong quản trị AI có trách nhiệm11.

Thứ hai, thực hiện truy nguyên và kiểm chứng tri thức do AI cung cấp.

 Các nghiên cứu cho thấy AI có thể tạo ra thông tin sai lệch hoặc trích dẫn không tồn tại. Vì vậy, người học cần đối chiếu với các nguồn học thuật chính thống trước khi sử dụng nhằm bảo đảm độ tin cậy của tri thức.

Thứ ba, minh bạch và khai báo việc sử dụng AI trong sản phẩm học thuật. Việc khai báo không chỉ bảo đảm tính trung thực mà còn là cơ chế trách nhiệm giải trình, giúp phân định rõ ranh giới giữa hỗ trợ hợp lệ và hành vi gian lận học thuật.

Thứ tư, bảo vệ dữ liệu cá nhân và dữ liệu nhạy cảm. Theo quy định tại Nghị định số 13/2023/NĐ-CP, việc xử lý dữ liệu cá nhân phải bảo đảm tính hợp pháp, minh bạch và có kiểm soát. Do đó, việc đưa dữ liệu định danh hoặc thông tin nhạy cảm lên các nền tảng AI công cộng tiềm ẩn nguy cơ vi phạm quy định về bảo vệ dữ liệu cá nhân.

Thứ năm, bảo toàn bản sắc trí tuệ cá nhân trong học thuật. Giá trị của sản phẩm học thuật không chỉ nằm ở hình thức hoàn chỉnh, mà quan trọng hơn là quá trình tư duy, lập luận và dấu ấn cá nhân của người học. UNESCO cũng nhấn mạnh, AI cần được sử dụng nhằm tăng cường năng lực nhận thức, thay vì làm suy giảm vai trò chủ thể của con người trong hoạt động học thuật.

4.3. Xây dựng quy chế nội bộ và đổi mới phương thức đánh giá tại các cơ sở giáo dục đại học

Ở cấp độ vĩ mô, Nhà nước giữ vai trò thiết lập nền tảng chính sách nhằm bảo đảm AI được ứng dụng như một công cụ thúc đẩy đổi mới sáng tạo, đồng thời không làm xói mòn các chuẩn mực đạo đức và liêm chính học thuật. Cách tiếp cận này phù hợp với xu hướng quản trị AI hiện nay, trong đó nhấn mạnh sự cân bằng giữa đổi mới công nghệ và kiểm soát rủi ro.

Thứ nhất, cần xây dựng các hướng dẫn quốc gia về sử dụng Generative AI trong giáo dục đại học theo hướng phân định rõ ranh giới giữa “hỗ trợ học tập hợp lệ” và “hành vi gian lận học thuật”. Các khuyến nghị quốc tế nhấn mạnh rằng việc ban hành các chuẩn mực và quy tắc sử dụng AI là điều kiện cần thiết để bảo đảm tính minh bạch và trách nhiệm trong môi trường học thuật, tránh tình trạng công nghệ phát triển vượt ngoài khả năng điều chỉnh của hệ thống giáo dục.

Thứ hai, trong bối cảnh AI phụ thuộc mạnh vào dữ liệu, bảo vệ dữ liệu cá nhân của người học cần được đặt ở vị trí trung tâm trong quản trị giáo dục đại học. Nghị định số 13/2023/NĐ-CP đã xác lập các nguyên tắc cơ bản, như: tính hợp pháp, minh bạch và trách nhiệm trong xử lý dữ liệu cá nhân. Điều này đặc biệt quan trọng khi sinh viên có xu hướng đưa dữ liệu học tập, thông tin cá nhân hoặc dữ liệu nhạy cảm vào các nền tảng AI công cộng mà chưa nhận thức đầy đủ về nguy cơ rò rỉ và lạm dụng thông tin.

Thứ ba, Nhà nước cần thúc đẩy hình thành và phát triển các chuẩn mực đạo đức AI trong giáo dục như một cấu phần của chiến lược phát triển khoa học – công nghệ quốc gia. Nghị quyết số 57-NQ/TW ngày 22/12/2024 của Bộ Chính trị đã nhấn mạnh yêu cầu phát triển khoa học, công nghệ và đổi mới sáng tạo gắn với bảo đảm an toàn dữ liệu, an ninh mạng và trách nhiệm xã hội trong tiến trình chuyển đổi số. Đây là cơ sở chính trị quan trọng để triển khai quản trị AI một cách bền vững trong hệ thống giáo dục đại học.

4.4. Chuẩn hóa trách nhiệm cá nhân của người học thông qua bộ nguyên tắc thực hành AI có trách nhiệm

Trước hết, các cơ sở giáo dục đại học cần ban hành quy chế nội bộ nhằm phân loại rõ mức độ được phép sử dụng AI theo từng loại nhiệm vụ học thuật. Thực tiễn tại một số cơ sở đào tạo cho thấy AI có thể được chấp nhận như một công cụ hỗ trợ, như: gợi ý tài liệu; rà soát ngôn ngữ, nhưng không được thay thế các hoạt động tư duy cốt lõi như phân tích, lập luận và kết luận khoa học. Việc thiếu các quy định cụ thể dễ dẫn đến hai xu hướng cực đoan: buông lỏng hoàn toàn và cấm đoán hình thức; trong cả hai trường hợp, người học vẫn có thể sử dụng AI nhưng trong trạng thái thiếu minh bạch và không gắn với trách nhiệm giải trình.

Ở cấp độ cơ sở đào tạo, thách thức trọng tâm hiện nay không phải là việc “có cho phép sử dụng AI hay không”, mà là thiết lập cơ chế quản trị đủ linh hoạt để vừa khai thác hiệu quả lợi ích của công nghệ, vừa duy trì các chuẩn mực liêm chính học thuật. Cách tiếp cận này phù hợp với xu hướng quản trị AI dựa trên mức độ rủi ro và bối cảnh sử dụng12.

Thứ hai, cần đổi mới phương thức kiểm tra – đánh giá theo hướng giảm lệ thuộc vào sản phẩm cuối cùng và tăng cường đánh giá quá trình. Các nghiên cứu quốc tế chỉ ra rằng, trong bối cảnh Generative AI phát triển mạnh, các hình thức đánh giá truyền thống dựa trên bài luận viết tại nhà ngày càng dễ bị thao túng13. Do đó, cần chuyển sang các phương thức đánh giá đa dạng, như: vấn đáp, thuyết trình, nhật ký học tập và phản biện trực tiếp nhằm bảo đảm phản ánh đúng năng lực thực chất của người học.

Thứ ba, giáo dục đạo đức AI cần được tích hợp như một nội dung thiết yếu trong chương trình đào tạo. Các khuyến nghị quốc tế cũng nhấn mạnh năng lực AI không chỉ bao gồm kỹ năng sử dụng công cụ mà còn bao hàm hiểu biết về giới hạn đạo đức, trách nhiệm học thuật và quyền sở hữu trí tuệ. Nếu thiếu nền tảng này, người học dễ có xu hướng sử dụng AI như một công cụ đối phó, thay vì một phương tiện hỗ trợ tư duy và phát triển năng lực cá nhân.

5. Kết luận

Sự phát triển của Generative AI đang đặt giáo dục đại học trước yêu cầu phải tái cấu trúc cách tiếp cận đối với liêm chính học thuật và đạo đức số. Nghiên cứu cho thấy, vấn đề cốt lõi không nằm ở bản thân công nghệ mà ở khả năng nhận diện và quản trị hiệu quả các “vùng xám” trong quá trình sử dụng AI. Trên cơ sở đó, bài viết đã đề xuất khung phân tích “vùng xám” đạo đức và hệ thống nguyên tắc thực hành Generative AI có trách nhiệm; đồng thời, nhấn mạnh yêu cầu chuyển từ tư duy “cấm đoán” sang quản trị linh hoạt, đa tầng. Trong bối cảnh chuyển đổi số, việc thiết lập cơ chế quản trị phù hợp không chỉ góp phần bảo đảm liêm chính học thuật mà còn là điều kiện quan trọng để phát huy vai trò của AI như một công cụ hỗ trợ phát triển năng lực tư duy độc lập và sáng tạo của người học.

Chú thích:
1. Bộ Chính trị (2024). Nghị quyết số 57-NQ/TW ngày 22/12/2024 về đột phá phát triển khoa học, công nghệ, đổi mới sáng tạo và chuyển đổi số quốc gia.
2, 7. Chính phủ (2023). Nghị định số 13/2023/NĐ-CP ngày 17/04/2023 về bảo vệ dữ liệu cá nhân.
3, 6, 8. UNESCO (2023). Guidance for generative AI in education and research. Paris: UNESCO Publishing.
4, 5, 13. Cotton, D. R. E., Cotton, P. A., & Shipway, J. R. (2023). Chatting and cheating: Ensuring academic integrity in the era of generative AI. Innovations in Education and Teaching International, 60(4), 1–12.
9, 11, 12. OECD (2021). OECD framework for the classification of AI systems: A tool for effective AI policies.
10. Chính phủ (2025). Quyết định số 127/QĐ-TTg ngày 26/01/2021 ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng trí tuệ nhân tạo đến năm 2030.
Tài liệu tham khảo:
1. Bộ Giáo dục và Đào tạo (2025). Thông tư số 02/2025/TT-BGDĐT ngày 24/01/2025 quy định khung năng lực số cho người học.
2. Bộ Khoa học và Công nghệ (2024). Quyết định số 1290/QĐ-BKHCN ngày 11/6/2024 hướng dẫn một số nguyên tắc về nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo có trách nhiệm.
3. Một sinh viên dùng ChatGPT đã làm xong luận văn tốt nghiệp sau 23 tiếng đồng hồ, ngày 09/2/2023. https://thanhnien.vn/mot-sinh-vien-dung-chatgpt-da-lam-xong-luan-van-tot-nghiep-sau-23-tieng-dong-ho-185230209012017958.htm.
4. Tác giả bài báo quốc tế bị gỡ bỏ: “Thầy tự ghi tên tôi vào”, ngày 03/8/2024. https://tuoitre.vn/tac-gia-bai-bao-quoc-te-bi-go-bo-thay-tu-ghi-ten-toi-vao-20240802224626126.htm
5. Quốc hội (2025). Luật Công nghiệp công nghệ số năm 2025.
6. Quốc hội (2025). Luật Trí tuệ nhân tạo năm 2025.
7. Trường Đại học FPT (2026). Chương trình hướng dẫn ứng dụng AI cho tân sinh viên.
8. VinUniversity (2024). Guidelines on student use of generative artificial intelligence. Hanoi: VinUniversity.