Sử dụng Trí tuệ nhân tạo có trách nhiệm trong Hòa giải và Thực tiễn pháp lý: Cân bằng giữa đổi mới và rủi ro về nhận thức

07 Tháng 7, 2025

Trong bối cảnh công nghệ, đặc biệt là Trí tuệ nhân tạo (AI) ngày càng đóng vai trò quan trọng trong tiến trình giải quyết tranh chấp, việc nhận diện các rủi ro tiềm ẩn để từ đó ứng dụng công nghệ một cách thận trọng trở nên cần thiết hơn bao giờ hết. Ngày 02/07/2025, Trang thông tin về hòa giải Mediate.com đã đăng tải bài viết “Sử dụng Trí tuệ nhân tạo có trách nhiệm trong Hòa giải và Thực tiễn pháp lý: Cân bằng giữa Đổi mới và Rủi ro Giảm Nhận thức” của tác giả Robert Bergman. Trung tâm Hòa giải Việt Nam (VMC) xin giới thiệu nội dung của bài viết dưới đây.

Công cụ mới, Thách thức mới đối với Hòa giải viên và Luật sư

Trí tuệ nhân tạo (AI) đang nhanh chóng làm thay đổi lĩnh vực pháp lý, cho phép hòa giải viên và luật sư có thể sử dụng trợ lý AI để soạn thảo đề xuất hòa giải, tóm tắt án lệ, phân tích chiến lược đàm phán và nhiều công việc khác. Những công cụ này hứa hẹn mang lại hiệu quả và mở ra những góc nhìn mới, tuy nhiên chúng cũng đặt ra những thách thức tiềm ẩn về mặt nhận thức. Những chuyên gia giàu kinh nghiệm trong việc lắng nghe, tư duy phản biện và ghi nhớ các chi tiết phức tạp có thể nhận thấy rằng việc liên tục sử dụng AI đang dần thay đổi cách họ tư duy. Thách thức đặt ra cho các hòa giải viên và luật sư trong năm 2025 là làm sao tận dụng được lợi ích của AI mà không để các kỹ năng nghề nghiệp của chính mình bị mai một. Thực tế, bất kỳ người thực hành nghề luật nào cũng sẽ phải đứng trước lựa chọn: hoặc thích nghi với bối cảnh mới của việc tích hợp AI - hoặc đối mặt với nguy cơ bị đào thải. Tuy nhiên, việc ứng dụng AI cũng đặt ra một câu hỏi mang tính quyết định: Liệu chúng ta đang sử dụng các công cụ này để bổ trợ cho tư duy của mình, hay để thay thế nó?

Nguy cơ giảm nhận thức của việc quá phụ thuộc vào AI: Bài học từ một nghiên cứu của MIT

Lần đầu tiên, một nhóm nghiên cứu tại Phòng Thí nghiệm Truyền thông của Viện Công nghệ Massachusetts (MIT Media Lab) đã cung cấp những dữ liệu thực nghiệm đầu tiên về hệ quả đối với hệ thống thần kinh của việc sử dụng AI trong một nghiên cứu sơ bộ được công bố vào tháng 6 năm 2025 với tiêu đề “Bộ não của bạn khi dùng ChatGPT: Sự tích lũy nợ nhận thức (cognitive debt) khi sử dụng trợ lý AI để viết luận”. Kết quả nghiên cứu dù vẫn còn ở giai đoạn ban đầu đã đặt ra những câu hỏi quan trọng về việc sử dụng AI một cách có trách nhiệm. Nghiên cứu này được thực hiện trên 54 người tham gia đến từ các trường đại học như MIT và Harvard, sử dụng phương pháp điện não đồ (EEG) để đo lường mức độ hoạt động của não bộ trong thời gian thực khi làm các bài tập viết luận.

Hiệu ứng “Mất trí nhớ”: Người dùng không thể nhớ lại nội dung chính mình đã viết

Kết quả đáng kinh ngạc nhất về hành vi chính là tác động tức thời đến trí nhớ. Những người tham gia được yêu cầu trích dẫn lại một câu trong bài luận mà họ vừa hoàn thành, với kết quả như sau:

  • Nhóm sử dụng AI: 83,3% số người sử dụng ChatGPT đã không thể trích dẫn chính xác bất kỳ câu nào từ bài luận của chính mình trong phiên đầu tiên. Thậm chí, không một ai trong nhóm này có thể đưa ra một trích dẫn chính xác hoàn toàn.

  • Nhóm đối chứng: Trong khi đó, những người viết bài không sử dụng công cụ hỗ trợ thì không gặp vấn đề gì. Chỉ 11,1% người trong hai nhóm “Chỉ dùng não” và “Dùng công cụ tìm kiếm” gặp khó khăn tương tự.

Kết quả cho thấy rất rõ: Người dùng AI có thể xử lý thông tin, nhưng không thực sự tiếp thu và ghi nhớ nội dung đó.

Giảm kết nối trong não bộ

Dữ liệu hành vi nêu trên còn được phản ánh rõ rệt qua các bằng chứng về sinh lý học thần kinh. Các nhà nghiên cứu phát hiện rằng mức độ hoạt động thần kinh giảm dần một cách có hệ thống khi người tham gia được AI hỗ trợ nhiều hơn. Về cơ bản, não bộ "giảm bớt công suất" ở các vùng liên quan đến sáng tạo khi AI đảm nhận nhiệm vụ.

  • Nhóm “Chỉ dùng não” thể hiện 79 kết nối thần kinh đáng kể trong dải tần alpha – tần số liên quan đến sự tập trung và hình thành ý tưởng sáng tạo.

  • Nhóm Sử dụng mô hình ngôn ngữ lớn (LLM) chỉ có 42 kết nối.

Kết quả cho thấy sự sụt giảm nghiêm trọng tới 47% mức độ hoạt động thần kinh trong quá trình sáng tạo.

Hiệu ứng thoái hóa: Não bộ không thể phục hồi trở lại

Điều đáng lo ngại nhất là sau đó, khi những người thường xuyên sử dụng AI bị yêu cầu viết mà không có công cụ hỗ trợ, não bộ của họ không thể quay lại trạng thái “bình thường” như trước. So với những người luyện tập mà không dùng AI ngay từ đầu, não bộ của nhóm thường xuyên dùng AI thể hiện tình trạng thiếu hoạt động đáng kể. Từ đó, nghiên cứu củng cố nhận định rằng việc sử dụng AI thường xuyên có thể dẫn đến hiện tượng “thoái hóa kỹ năng” trong tư duy và giải quyết vấn đề.

Giống như một cơ bắp không được hoạt động, các kết nối thần kinh liên quan tới tư duy độc lập bị yếu đi rõ rệt. Dù các bài luận có sử dụng AI có thể đáp ứng được các tiêu chí kỹ thuật, nhưng các giảng viên trực tiếp đánh giá bài làm lại nhận xét các bài luận do mô hình ngôn ngữ lớn (LLM) tạo ra là “vô hồn”, với “nhiều câu văn trống rỗng về mặt nội dung và các bài luận thiếu đi sắc thái cá nhân”.

Như vậy, việc quá phụ thuộc vào AI làm suy giảm trí nhớ, giảm mức độ hoạt động thần kinh và làm lu mờ tính sáng tạo cá nhân. Nhưng điều này không có nghĩa là chúng ta nên tránh dùng AI, mà là ta cần suy nghĩ lại về cách sử dụng nó.

Một nghiên cứu khác, do công ty AI Anthropic thực hiện trong năm 2025, đã phân tích hàng trăm nghìn tương tác giữa sinh viên đại học và trợ lý AI Claude. Kết quả của nghiên cứu cũng đưa ra những mối quan ngại tương tự.

Hiện tượng “trút bỏ gánh nặng nhận thức” (cognitive offloading) này không phải là điều mới mẻ. Nghiên cứu trên đã dẫn ra các tiền lệ tương tự từ trước:

  • Tiền lệ từ máy tính cầm tay: Bài nghiên cứu nhấn mạnh các nghiên cứu trong giáo dục rằng những học sinh quá phụ thuộc vào máy tính cầm tay thường gặp khó khăn hơn khi không được sử dụng công cụ hỗ trợ, vì học sinh chưa thực sự tiếp thu và nắm vững được quy trình giải quyết vấn đề.

  • Hiệu ứng Google: Nghiên cứu cũng đề cập đến “Hiệu ứng Google” (Google Effect) – một hiện tượng đã được ghi nhận rõ ràng, trong đó sự phụ thuộc vào công cụ tìm kiếm làm thay đổi cách chúng ta ghi nhớ. Thay vì lưu giữ thông tin, chúng ta chỉ nhớ cách tìm lại nó – điều này khiến não bộ không còn xử lý thông tin ở cấp độ sâu hơn. Đáng tiếc thay, hiện tượng này không chỉ giới hạn ở học sinh, sinh viên mà các môi trường doanh nghiệp và pháp lý cũng đang ghi nhận xu hướng tương tự. Vào đầu năm 2025, các nhà nghiên cứu từ Microsoft và Đại học Carnegie Mellon đã khảo sát hơn 300 chuyên gia trong nhiều lĩnh vực (kinh doanh, pháp lý, kỹ thuật, v.v.) về việc sử dụng AI trong công việc hằng ngày, từ đó phát hiện ra một mối tương quan rõ rệt: những người tin tưởng nhất vào kết quả do AI đưa ra là những người ít khi đánh giá phản biện lại kết luận của AI nhất. Thậm chí, những người tham gia khảo sát thừa nhận rằng, trung bình có tới 40% thời gian họ sử dụng AI trong công việc mà không có tư duy phản biện nào đối với kết quả AI cung cấp.

Hàm ý cho Hòa giải viên và người hành nghề luật

Những kết quả nghiên cứu trên có ý nghĩa quan trọng đối với các hòa giải viên, trọng tài viên và luật sư. Công việc trong lĩnh vực pháp lý không chỉ yêu cầu kiến thức pháp luật hay kỹ năng đàm phán, mà còn đòi hỏi sự hiện diện nhận thức (cognitive presence): khả năng tập trung sắc bén, lắng nghe chủ động, tư duy phản biện, sáng tạo trong giải quyết vấn đề, và khả năng ghi nhớ, tổng hợp những thông tin phức tạp như tình tiết vụ việc, lợi ích của các bên, án lệ…. Việc quá phụ thuộc vào AI có thể làm suy yếu những kỹ năng này, và từ đó việc sử dụng AI một cách thiếu kiểm soát trong hòa giải hay hành nghề pháp lý có thể làm giảm hiệu quả nghề nghiệp theo thời gian.

Một mối quan ngại mang tính cấp thiết là sự suy giảm khả năng ghi nhớ thông tin. Lĩnh vực pháp lý nói chung và hòa giải nói riêng thường đòi hỏi phải tiếp nhận khối lượng lớn dữ liệu, từ tình tiết vụ việc, lời kể của khách hàng, cho đến các điều khoản hợp đồng. Mặc dù AI có thể hỗ trợ rất hiệu quả trong việc tóm tắt biên bản, lọc tài liệu chứng cứ, hoặc tra cứu nhanh án lệ liên quan, nhưng càng ít tham gia trực tiếp vào việc xử lý thông tin, chúng ta càng khó có khả năng ghi nhớ sâu sắc. Con người có nguy cơ trở thành một “kênh trung gian” thụ động để truyền tải những gì AI cung cấp, thay vì thực sự nắm vững và nội tại hóa nội dung vụ việc.

Có lẽ rủi ro đáng lo ngại nhất chính là nguy cơ xói mòn tư duy phản biện và năng lực phán đoán. Hòa giải viên và luật sư là những người ra quyết định và tư vấn, phải đánh giá chứng cứ, kiểm tra lập luận và đảm bảo rằng kết quả đạt được là công bằng và hợp lý. Nếu chúng ta ngày càng dễ dàng phụ thuộc vào kết quả do AI đưa ra, thì chúng ta có thể dần mất thói quen kiểm tra, đánh giá kỹ lưỡng lập luận đằng sau các kết luận đó.

Để giải quyết tranh chấp hiệu quả,hòa giải viên và luật sư phải tư duy sáng tạo, đưa ra nhiều phương án giải quyết linh hoạt, tìm kiếm lập luận pháp lý mới, hoặc tái cấu trúc vấn đề dưới góc nhìn khác biệt. Các công cụ AI tạo sinh hiện nay mặc dù có thể tạo ra nội dung đạt chuẩn và có cấu trúc rõ ràng dựa trên dữ liệu đào tạo, nhưng về bản chất, đây chỉ là sự mô phỏng, phản chiếu lại các khuôn mẫu sẵn có, chứ không phải sáng tạo thực sự. Nếu hòa giải viên hoặc luật sư quá lệ thuộc vào AI để giải quyết vấn đề, các giải pháp được tạo ra sẽ có nguy cơ trở nên giống nhau, bởi AI sẽ lặp lại những “kịch bản” quen thuộc, và người hành nghề sẽ mất dần cơ hội rèn luyện khả năng tư duy sáng tạo và đưa ra ý tưởng mới trong quá trình giải quyết tranh chấp.

AI với vai trò là công cụ hỗ trợ ra quyết định

Mặc dù sử dụng AI có những nguy cơ đã phân tích như trên, AI chắc chắn sẽ tiếp tục hiện diện trong lĩnh vực pháp lý và giải quyết tranh chấp, và có thể hỗ trợ cải thiện chất lượng đáng kể khi được sử dụng đúng cách, nó có thể cải thiện đáng kể chất lượng kết quả. Mấu chốt nằm ở chỗ: cần thiết kế việc tích hợp AI theo hướng hỗ trợ và nâng cao năng lực của con người, chứ không phải làm suy giảm. Một ví dụ điển hình là cách tiếp cận của Next Level Mediation - một nền tảng tận dụng AI và khoa học ra quyết định (Decision Science) để hỗ trợ hòa giải viên và luật sư mà không thay thế vai trò của con người.

Nền tảng này sử dụng một ứng dụng dựa trên khoa học ra quyết định để giúp hòa giải viên và luật sư phân tích tranh chấp một cách có hệ thống. Ví dụ, phần mềm có thể nhanh chóng sàng lọc một lượng lớn tài liệu vụ việc và trích xuất các thông tin hoặc điểm then chốt mà hòa giải viên cần chú ý. Sau đó, AI trình bày các thông tin này thông qua các hình thức trực quan dễ hiểu như dòng thời gian sự kiện, biểu đồ về những ưu tiên và đánh giá rủi ro của từng bên, sơ đồ cây các quyết định cho các kết quả có thể xảy ra, v.v. Bằng cách chuyển hóa thông tin vụ việc phức tạp thành hình ảnh trực quan, AI giúp giảm tải gánh nặng nhận thức một cách tích cực, giảm tình trạng quá tải thông tin cho con người mà không làm thay vai trò ra quyết định. Các hòa giải viên phản hồi rằng việc tổng hợp, minh họa toàn cảnh vụ việc bằng biểu đồ giúp họ và các bên có thể nhanh chóng nắm bắt tổng thể vụ việc, phát hiện được những điểm đã bị bỏ qua trước đó trong hồ sơ. Không chỉ vậy, các công cụ hỗ trợ trực quan này vẫn đòi hỏi hòa giải viên phải đóng vai trò chủ động, điều hành tiến trình vụ việc, vận dụng tư duy và kỹ năng để quyết định thông tin nào là cần thiết và làm sao truyền đạt được đến các bên một cách phù hợp.

Kết luận

Việc tích hợp AI vào lĩnh vực pháp lý nói chung và hòa giải thương mại nói riêng không chỉ là xu hướng tất yếu; nếu làm đúng, công nghệ này sẽ mang lại nhiều giá trị tích cực. Chìa khóa để khai thác được các lợi ích này là tích hợp một cách thận trọng: sử dụng các công cụ này để nâng cao chất lượng sản phẩm công việc và khả năng ra quyết định, đồng thời tránh được bẫy phụ thuộc vào chúng. Các nghiên cứu gần đây đã đưa ra lời cảnh tỉnh rằng việc lệ thuộc vào AI một cách thiếu kiểm soát có thể dẫn tới “lười tư duy”, một dạng “rò rỉ não bộ” làm suy giảm trí nhớ, sự tập trung và tư duy phản biện của con người. Tuy nhiên, những nhận định này không phải để khiến chúng ta e ngại AI; ngược lại, chúng ta cần xây dựng các phương pháp thực hành tốt nhất khi sử dụng AI. Khi đã nhận thức rõ được rủi ro tiềm ẩn, hòa giải viên và người hành nghề luật có thể có các biện pháp phòng ngừa như không ngừng rèn luyện các kỹ năng cốt lõi, có tư duy phản biện kết quả mà AI đưa ra và giữ cho mình tư duy chủ động trong mọi vấn đề.

Theo trang thông tin Mediation.com đăng tải ngày 02/07/2025

Tin mới nhất

  • Trường Đại học Kinh tế Quốc dân
    Đài truyền hình thành phố Hồ Chí Minh
    Thời báo Kinh tế Sài Gòn
    Hội luật Quốc tế Việt Nam
    Phòng Thương mại và Công nghiệp Việt Nam
    International Dispute Resolution & Risk Management Institute
    Korean International Mediation Center
    Singapore International Mediation Centre
    Shanghai Commercial Mediation Center (SCMC)
    Câu lạc bộ Luật sư thương mại quốc tế
    Internation Finance Corporation
    Báo Diễn đàn doanh nghiệp