Việc các giảng viên chia sẻ công khai kết luận dựa trên AI detector, đôi khi đính kèm tên sinh viên hoặc trích đoạn bài viết, cũng đặt ra một câu hỏi đạo đức nghiêm trọng: từ khi nào giáo dục cho phép phán xét công khai mà không cần kiểm chứng? Và từ khi nào, một bài viết hay lại trở thành cái cớ để nghi ngờ, thay vì là dấu hiệu của sự tiến bộ trong học thuật?
Ảnh: NBCnews
AI nói có tội, nhưng không ai có bằng chứng
Không lâu trước đây, một sinh viên ngành xã hội gửi bài luận cuối kỳ cho giảng viên của mình. Bài viết được trình bày mạch lạc, dẫn chứng phong phú, văn phong chuẩn mực. Nhưng thay vì nhận được phản hồi học thuật, em bị thầy gọi lên và chỉ vào một con số: “AI detector báo 85% bài này là do máy viết.” Bài bị trừ điểm. Không có phiên giải. Không có bằng chứng đối chiếu. Chỉ có một kết luận từ một công cụ không ai hiểu rõ cơ chế.
Tình huống ấy không còn là hi hữu. Trong nhiều môi trường học thuật, các phần mềm phát hiện văn bản do AI tạo ra đang được sử dụng như một “tòa án nhanh”, nơi sinh viên bị phán xét bằng phần trăm, thay vì được hỏi han bằng một câu trò chuyện. Từ Turnitin AI, GPTZero cho tới các công cụ nội bộ chưa qua kiểm chứng, giáo dục đang chứng kiến một làn sóng “máy móc hóa niềm tin”, nơi giáo viên có thể ngừng lắng nghe học trò chỉ vì một chỉ số đỏ hiện ra trên màn hình.
Không một công cụ AI detector hiện nay nào đạt được độ chính xác và minh bạch đủ để được xem là căn cứ cho các quyết định mang tính kỷ luật trong giáo dục, như buộc tội đạo văn hay gian lận học thuật.
Câu hỏi đặt ra không còn xoay quanh việc sinh viên có sử dụng AI hay không. Mà là: nếu một bài viết được chấm là “do AI viết”, nhưng không ai chứng minh được, thì ai là người có quyền phán xét? Và rộng hơn, chúng ta cần tự hỏi: phán xét ấy dựa trên tri thức sư phạm, hay chỉ là niềm tin mù quáng vào những thuật toán chưa minh bạch?
Công cụ chưa hoàn thiện, niềm tin đã tuyệt đối
Chỉ trong hơn một năm, các công cụ phát hiện văn bản do AI tạo sinh, như GPTZero, Turnitin AI, Copyleaks, đã xuất hiện dày đặc trong các trường học, từ Mỹ, Anh đến châu Á. Chúng được sử dụng với mục tiêu đầy thiện chí: giúp giáo viên phát hiện dấu hiệu của “lạm dụng AI” trong học tập. Nhưng chính những công cụ ấy đang dần trở thành nơi gửi gắm quá mức niềm tin, và cả quyền lực phán xét.
Một nghiên cứu công bố trên tạp chí Patterns (2023), do nhóm tác giả từ Stanford thực hiện, đã chỉ ra rằng các công cụ phát hiện văn bản do AI tạo ra, bao gồm GPTZero, DetectGPT, và một số mô hình khác, có xu hướng đánh nhầm bài viết của người dùng tiếng Anh không phải bản ngữ là do AI sinh ra. Cụ thể, hơn 61% các bài luận TOEFL do sinh viên quốc tế viết đã bị các hệ thống này phân loại sai, trong khi các bài viết của học sinh lớp 8 người Mỹ lại gần như không bị ảnh hưởng.
Giáo dục, xét đến cùng là không gian của những cuộc gặp gỡ giữa con người với nhau. Ảnh: Lễ tốt nghiệp của Đại học Quốc gia Hà Nội năm 2015/Fanpage trường.
Báo cáo chính thức từ Stanford HAI cũng cảnh báo rằng: không một công cụ AI detector hiện nay nào đạt được độ chính xác và minh bạch đủ để được xem là căn cứ cho các quyết định mang tính kỷ luật trong giáo dục, như buộc tội đạo văn hay gian lận học thuật. Việc sử dụng những công cụ chưa được kiểm định rõ ràng không chỉ tiềm ẩn sai sót mà còn làm dấy lên lo ngại về thiên kiến, đặc biệt với các nhóm sinh viên thiểu số ngôn ngữ hoặc đến từ nền giáo dục không sử dụng tiếng Anh.
Trong khi các trường đại học lớn ở nước ngoài bắt đầu cân nhắc dừng triển khai AI detector diện rộng thì tại Việt Nam, những công cụ này lại đang được một số giảng viên áp dụng với tốc độ chóng mặt, không qua hướng dẫn, không qua thử nghiệm. Có nơi, bài luận bị trừ 20–40% điểm chỉ vì phần mềm báo hơn 50% “AI likelihood”. Có trường hợp sinh viên viết bài phản biện tốt, văn phong chắc chắn, nhưng bị yêu cầu viết lại toàn bộ vì kết quả “chưa an toàn”.
Giáo dục, nếu bị thay thế bởi các cơ chế đánh giá dựa trên niềm tin vào máy móc, sẽ không còn là không gian nuôi dưỡng con người. Nó sẽ trở thành nơi sinh viên học cách né tránh, mô phỏng, và viết theo khuôn để không bị gắn nhãn. Và khi đó, không còn ai thực sự học nữa, chỉ còn những người đang diễn cho vừa lòng các thuật toán.
Câu chuyện không dừng ở con số. Khi điểm số, và cả niềm tin, bị quyết định bởi những dòng code chưa minh bạch, nền giáo dục sẽ không còn dựa trên hiểu biết, mà trên… xác suất. Và một khi thầy cô thôi hỏi “em nghĩ gì khi viết đoạn này?”, mà chỉ nhìn vào phần trăm hiện lên trên màn hình, thì mối quan hệ giữa người dạy và người học sẽ không còn là giáo dục, mà là kiểm soát.
Khi giáo dục đánh mất sự gần gũi
Chúng ta đã quen với việc phát hiện đạo văn bằng những công cụ như Turnitin cổ điển, nơi mỗi đoạn văn đều có thể được so sánh, đối chiếu với một nguồn cụ thể. Đó là cơ chế có thể kiểm tra được, có minh chứng, và ít nhiều vẫn cho người học cơ hội giải thích.
Nhưng với văn bản do AI tạo sinh, hoặc bị nghi là như vậy, không có “nguồn gốc” để truy ra. Không có câu trích dẫn nào để đối chiếu, không có tài liệu nào để khẳng định. Chỉ có một con số dựa trên xác suất, đưa ra bởi mô hình huấn luyện mà người chấm không hề biết nó được xây dựng trên dữ liệu gì. Mọi phán quyết lúc này đều mơ hồ. Mà giáo dục, nếu muốn giữ lại phẩm giá của người học, không thể dựa trên sự mơ hồ để trừng phạt.
Nhà lý luận Sara Ahmed từng viết rằng, đạo đức không chỉ là nguyên tắc, mà là sự gần gũi (ethics of proximity), một sự dấn thân cảm xúc, nơi người dạy không xa rời người học như một thẩm phán lạnh lùng, mà gặp gỡ họ trong không gian của sự quan tâm và hiểu biết. Trong khi đó, nhà giáo dục Gert Biesta nhấn mạnh rằng, giáo dục không phải là nơi để “đo lường và giám sát”, mà là một quá trình tương tác, nơi người học được nhìn nhận như một chủ thể đang hình thành, không phải một đối tượng cần bị bắt lỗi.
Có nhiều cách thiết kế lại bài tập, tổ chức các buổi viết phản hồi trực tiếp để giảm sự phụ thuộc vào AI. Ảnh: Hội nghị Khoa học sinh viên trường Đại học Khoa học Tự nhiên, Đại học Quốc gia Hà Nội/Fanpage trường.
Đặt trong tinh thần ấy, ta cần tự hỏi: liệu khi dựa vào AI detector để kết luận và trừ điểm, ta đang còn dạy học hay đang giám sát sinh viên? Liệu có lúc nào đó, chúng ta, những người làm giáo dục, đã từ bỏ việc lắng nghe người học để chạy theo một công cụ được mặc định là “khách quan”, nhưng bản thân nó lại thiếu minh bạch và không chịu trách nhiệm?
Giáo dục, nếu bị thay thế bởi các cơ chế đánh giá dựa trên niềm tin vào máy móc, sẽ không còn là không gian nuôi dưỡng con người. Nó sẽ trở thành nơi sinh viên học cách né tránh, mô phỏng, và viết theo khuôn để không bị gắn nhãn. Và khi đó, không còn ai thực sự học nữa, chỉ còn những người đang diễn cho vừa lòng các thuật toán.
Niềm tin vào máy móc và sự im tiếng của người học
Trên các nhóm học thuật lớn tại Việt Nam, từ cộng đồng giảng viên đại học đến các nhóm nghiên cứu chuyên môn, các thảo luận xoay quanh việc “phát hiện sinh viên dùng AI” diễn ra ngày càng sôi nổi, và đầy kịch tính. Nhiều giảng viên không ngần ngại chia sẻ những ảnh chụp màn hình từ GPTZero hay Turnitin AI với tỷ lệ phần trăm kèm theo các tuyên bố: “Bài này chắc chắn do AI viết.” Có người nói thẳng: “Nhìn văn là biết,” “Sinh viên mà viết mạch lạc vậy là đáng nghi.” Phần lớn trong các thảo luận đó, người học vắng mặt như một đối tượng bị xét xử, không có quyền phản hồi, không có cơ hội được nghe hỏi: Em nghĩ gì? Em viết sao?
Việc “nghi ngờ mặc định” và “trừ điểm dựa trên xác suất” có thể giúp giáo viên cảm thấy kiểm soát được tình hình trong ngắn hạn. Nhưng về lâu dài, nó đẩy sinh viên ra xa khỏi niềm tin, khỏi sáng tạo, và khỏi chính năng lực phản tư của mình.
Sự lan rộng của văn hóa “nghi ngờ mặc định” này phần nào phản ánh một trạng thái tâm lý dễ hiểu: lo sợ bị qua mặt, bị đánh lừa, bị mất kiểm soát trước sự phát triển của công nghệ. Nhưng điều đáng nói là niềm tin vào công cụ, dù chưa được kiểm chứng, lại đang dần thay thế trách nhiệm sư phạm, nơi lẽ ra người dạy cần đóng vai trò tạo điều kiện cho sự phát triển tư duy, chứ không phải là một lực lượng trấn áp.
Việc các giảng viên chia sẻ công khai kết luận dựa trên AI detector, đôi khi đính kèm tên sinh viên hoặc trích đoạn bài viết, cũng đặt ra một câu hỏi đạo đức nghiêm trọng: từ khi nào giáo dục cho phép phán xét công khai mà không cần kiểm chứng? Và từ khi nào, một bài viết hay lại trở thành cái cớ để nghi ngờ, thay vì là dấu hiệu của sự tiến bộ trong học thuật?
Trong môi trường đó, người học buộc phải viết “giả ngu”, viết lửng lơ, cắt nghĩa dở, để tránh bị nghi là máy móc. Những bài viết chỉn chu trở thành đối tượng nghi vấn, trong khi những bài rối rắm đôi khi lại được tha. Đó là một sự đảo ngược của logic giáo dục, nơi chất lượng không còn được thưởng, mà bị xét xử.
Thế giới đang phản tư, còn ta có đang đi quá nhanh?
Trong khi một số cơ sở giáo dục tại Việt Nam bắt đầu sử dụng AI detector như một giải pháp mặc định để kiểm soát chất lượng học tập, thì ở nhiều đại học lớn trên thế giới, làn sóng phản tư đang mạnh mẽ nổi lên. Đại học Stanford, Đại học Cambridge và các khối Ivy League đã công khai bày tỏ lo ngại về tính không đáng tin cậy của các công cụ phát hiện AI, đặc biệt là khi sử dụng để đưa ra kết luận đánh giá học thuật có hệ quả. Một số trường đã đưa ra khuyến nghị tạm dừng sử dụng các phần mềm này, hoặc chỉ dùng như một công cụ tham khảo, không mang tính quyết định.
Tạp chí Chronicle of Higher Education (2024) cũng ghi nhận rằng nhiều nhà quản lý giáo dục và giảng viên tại Mỹ bắt đầu chuyển hướng từ việc “bắt lỗi” sang “trao quyền”, bằng cách thiết kế lại bài tập, tổ chức các buổi viết phản hồi trực tiếp, và yêu cầu sinh viên giải thích quá trình hình thành ý tưởng trong bài viết. Thay vì hỏi “AI có viết không?”, họ hỏi “em đã học được gì khi viết bài này?”
Những mô hình thay thế không phải là không tồn tại. Từ phỏng vấn mini (oral defenses) đến portfolios phản tư, từ bài tập nhóm có giám sát đến viết phản hồi theo từng giai đoạn, tất cả đều giúp khôi phục mối quan hệ người, người trong giáo dục, giảm phụ thuộc vào máy móc. Đó là những hình thức đánh giá không loại trừ AI, nhưng cũng không thần thánh hóa nó như một công cụ giám sát đạo đức.
Trong bối cảnh đó, câu hỏi đặt ra không phải là “chúng ta có nên dùng AI hay không”, mà là: “Chúng ta có đang hiểu đúng vai trò của người dạy trong thời đại AI?” Nếu giáo dục không đi cùng minh bạch, đối thoại, và nhân tính, thì dù có thêm hàng chục công cụ phát hiện, điều còn lại chỉ là vỏ bọc kỹ trị cho một nền học thuật mất đi sự sống.
Trả lại giáo dục cho con người
Không ai phủ nhận tốc độ phát triển vượt bậc của trí tuệ nhân tạo. Không ai phản đối việc tận dụng công nghệ để hỗ trợ giảng dạy. Nhưng cũng không ai nên quên rằng: giáo dục, xét đến cùng, là không gian của những cuộc gặp gỡ giữa con người với nhau.
Một bài viết có thể gọn gàng nhờ AI, nhưng một con người trưởng thành không thể được “tạo sinh” chỉ qua vài dòng lệnh. Một giảng viên có thể dùng công cụ để tham khảo, nhưng không thể để công cụ thay thế cho sự cảm nhận, trò chuyện, và thấu hiểu, những điều vốn làm nên nghề dạy học từ thuở sơ khai. Không một AI detector nào, dù chính xác đến đâu, có thể nhìn thấy ánh mắt phân vân của sinh viên khi nộp bài, hoặc bắt gặp sự nỗ lực chân thành nằm sau một đoạn văn gãy gọn.
Việc “nghi ngờ mặc định” và “trừ điểm dựa trên xác suất” có thể giúp giáo viên cảm thấy kiểm soát được tình hình trong ngắn hạn. Nhưng về lâu dài, nó đẩy sinh viên ra xa khỏi niềm tin, khỏi sáng tạo, và khỏi chính năng lực phản tư của mình. Chúng ta sẽ đào tạo ra những người viết để qua mặt máy móc, chứ không phải để khai mở suy nghĩ.
Triết lý giáo dục, dù dưới hình hài Dewey, Freire hay Biesta, đều nhất quán ở một điểm: giáo dục là mối quan hệ giữa người, với, người, trong đó sự tin cậy không thể thay bằng thuật toán, và học tập là hành trình trở thành, chứ không phải quá trình lọc nhiễu.
Và nếu vẫn còn ai hỏi: “Làm sao biết một bài là do người viết hay do AI?”, thì có lẽ điều đáng lo không phải là bài viết ấy. Mà là chỗ đứng của người thầy, đã lùi lại tới đâu trong không gian của giáo dục hôm nay.□
——
ThS. Mai Phúc Thịnh, nghiên cứu viên giáo dục độc lập.
* Bài viết này phản ánh quan điểm cá nhân của tác giả.
Tài liệu tham khảo
Ahmed, S. (2012). On Being Included: Racism and Diversity in Institutional Life. Duke University Press.
Biesta, G. (2010). Good Education in an Age of Measurement: Ethics, Politics, Democracy. Routledge.
Bowen, J. A., & Watson, C. E. (2024). AI Detection Is a Business. But Should It Be Faculty Business? The Chronicle of Higher Education. Available at: https://www.chronicle.com/article/ai-detection-is-a-business-but-should-it-be-faculty-business
CITL, Center for Innovative Teaching and Learning at Northern Illinois University. (2024, December 12). AI Detectors: An Ethical Minefield. Available at: https://citl.news.niu.edu/2024/12/12/ai-detectors-an-ethical-minefield/
Dede, C. (2023). Educating in a World of Artificial Intelligence. Harvard EdCast. Harvard Graduate School of Education. Available at: https://www.gse.harvard.edu/ideas/edcast/23/02/educating-world-artificial-intelligence
Dewey, J. (1916). Democracy and Education: An Introduction to the Philosophy of Education. Macmillan.
Freire, P. (1970). Pedagogy of the Oppressed. Herder and Herder.
Porayska-Pomsta, K., Holmes, W., & Nemorin, S. (2024). The Ethics of AI in Education. arXiv preprint. Available at: https://arxiv.org/abs/2406.11842
Selwyn, N. (2019). Should Robots Replace Teachers? AI and the Future of Education. Polity Press.
The Stanford Institute for Human-Centered AI (HAI). (2023). AI-Detectors Biased Against Non-Native English Writers. Available at: https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers
Bài đăng Tia Sáng số 13/2025