Gia đình các nạn nhân vụ xả súng ở trường học Canada kiện OpenAI vì chatbot hỗ trợ kẻ tấn công
Theo Al Jazeera English
Gia đình các nạn nhân trong vụ xả súng tại thị trấn Tumbler Ridge, British Columbia, Canada, đã đệ đơn kiện OpenAI lên tòa án liên bang Mỹ. Họ cáo buộc hãng sản xuất ChatGPT không cảnh báo cảnh sát về những tương tác đáng ngại giữa kẻ xả súng và chatbot trước vụ việc xảy ra hồi tháng 2, khiến 6 người thiệt mạng và 25 người bị thương. Đây là những vụ kiện đầu tiên tại Mỹ cáo buộc chatbot AI đóng vai trò tạo điều kiện cho một vụ xả súng hàng loạt.
Các gia đình nạn nhân của vụ xả súng tại một thị trấn hẻo lánh ở dãy núi Rockies, Canada, đã kiện công ty trí tuệ nhân tạo OpenAI lên tòa án liên bang Mỹ, cáo buộc hãng sản xuất ChatGPT không cảnh báo cảnh sát về những tương tác đáng ngại của kẻ xả súng với chatbot.
Đơn kiện được nộp hôm thứ Tư thay mặt cho Maya Gebala, 12 tuổi, bị thương nặng trong vụ xả súng hồi tháng 2, là một trong số hơn hai chục vụ đầu tiên từ các gia đình ở Tumbler Ridge, British Columbia. Luật sư của họ cho biết đây là 'cả một cộng đồng cùng bước lên để yêu cầu OpenAI chịu trách nhiệm'.
Sáu vụ kiện khác được nộp lên tòa án liên bang ở San Francisco cáo buộc tội gây chết người vì hành vi trái pháp luật thay mặt cho năm đứa trẻ và một nhà giáo dục thiệt mạng trong vụ xả súng hàng loạt nguy hiểm nhất Canada trong nhiều năm. Các nạn nhân bao gồm Zoey Benoit, Abel Mwansa Jr., Ticaria 'Tiki' Lampert, Kylie Smith, đều 12 tuổi, Ezekiel Schofield, 13 tuổi, và trợ lý giáo dục Shannda Aviugana-Durand.
Theo cảnh sát, Jesse Van Rootselaar, người có tương tác với ChatGPT là trọng tâm của các vụ kiện, đã bắn mẹ và anh trai cùng mẹ khác tại nhà trước khi xả súng vào trường cũ hôm 10/2, giết chết một trợ lý giáo dục và năm học sinh từ 12 đến 13 tuổi. Van Rootselaar, 18 tuổi, sau đó đã tự tử. Hai mươi lăm người khác bị thương trong vụ tấn công.
Người phát ngôn của OpenAI gọi vụ xả súng là 'một thảm kịch' và cho biết công ty có chính sách không khoan nhượng đối với việc sử dụng công cụ của mình để hỗ trợ hành vi bạo lực. 'Chúng tôi đã tăng cường các biện pháp bảo vệ, bao gồm cải thiện cách ChatGPT phản ứng với các dấu hiệu đau khổ, kết nối mọi người với các nguồn hỗ trợ tâm lý địa phương, tăng cường đánh giá và xử lý các mối đe dọa bạo lực tiềm ẩn, đồng thời cải thiện việc phát hiện những người vi phạm chính sách nhiều lần', người phát ngôn cho biết trong một tuyên bố.
CEO Sam Altman đã gửi một lá thư chính thức xin lỗi cộng đồng vào tuần trước, thừa nhận công ty đã không thông báo cho cơ quan thực thi pháp luật về hành vi trực tuyến của kẻ xả súng.
Các vụ kiện này là một phần trong làn sóng kiện tụng ngày càng tăng cáo buộc các công ty trí tuệ nhân tạo không ngăn chặn các tương tác chatbot mà nguyên đơn cho là góp phần gây ra tự hại, bệnh tâm thần và bạo lực. Đây dường như là những vụ kiện đầu tiên ở Mỹ cáo buộc ChatGPT đóng vai trò tạo điều kiện cho một vụ xả súng hàng loạt.
Luật sư Jay Edelson, người đại diện cho các nguyên đơn, cho biết ông có kế hoạch nộp thêm hai chục vụ kiện khác trong những tuần tới chống lại công ty này thay mặt cho những người khác bị ảnh hưởng bởi vụ xả súng. Theo một đơn khiếu nại, hệ thống tự động của OpenAI đã gắn cờ các cuộc trò chuyện ChatGPT vào tháng 6/2025, trong đó kẻ tấn công mô tả các kịch bản bạo lực súng đạn.
Các thành viên nhóm an toàn đã khuyến nghị liên hệ với cảnh sát sau khi kết luận cô ta là mối đe dọa đáng tin cậy và sắp xảy ra, theo đơn kiện trích dẫn một bài báo của Wall Street Journal từ tháng 2 về các cuộc thảo luận nội bộ của công ty. Nhưng Altman và ban lãnh đạo OpenAI đã phủ quyết nhóm an toàn và cảnh sát không bao giờ được gọi, vụ kiện cáo buộc. Tài khoản của kẻ xả súng đã bị vô hiệu hóa, nhưng cô ta có thể tạo tài khoản mới và tiếp tục sử dụng nền tảng để lên kế hoạch tấn công.
Sau báo cáo của Wall Street Journal, công ty cho biết tài khoản đã bị gắn cờ bởi các hệ thống xác định 'lạm dụng các mô hình của chúng tôi để hỗ trợ các hoạt động bạo lực' nhưng không đáp ứng các tiêu chí nội bộ để báo cáo cho cơ quan thực thi pháp luật. Các vụ kiện cáo buộc 'các nạn nhân không biết điều này vì OpenAI minh bạch, mà vì chính nhân viên của công ty đã rò rỉ cho Wall Street Journal sau khi họ không thể chịu đựng được sự im lặng của công ty'.
Trong một bài đăng blog hôm thứ Ba, OpenAI cho biết họ đào tạo các mô hình của mình để từ chối các yêu cầu có thể 'cho phép bạo lực một cách có ý nghĩa' và thông báo cho cơ quan thực thi pháp luật khi các cuộc trò chuyện cho thấy 'nguy cơ gây hại sắp xảy ra và đáng tin cậy đối với người khác', với sự hỗ trợ của các chuyên gia sức khỏe tâm thần để đánh giá các trường hợp ranh giới. Công ty cho biết họ liên tục cải tiến các mô hình và phương pháp phát hiện dựa trên việc sử dụng và ý kiến chuyên gia.
Các vụ kiện yêu cầu một khoản bồi thường thiệt hại không xác định và lệnh tòa yêu cầu OpenAI đại tu các hoạt động an toàn của mình, bao gồm các quy trình bắt buộc giới thiệu cơ quan thực thi pháp luật. Một trong những nạn nhân ban đầu đã đệ đơn kiện lên tòa án Canada nhưng đã rút lại để theo đuổi các yêu cầu bồi thường tại California, Edelson cho biết. Các vụ kiện này nối tiếp các vụ tương tự được nộp lên tòa án liên bang và tiểu bang Mỹ trong những tháng gần đây, cáo buộc ChatGPT tạo điều kiện cho hành vi có hại, tự tử, và trong ít nhất một trường hợp, là một vụ giết người rồi tự tử.
Các vụ án vẫn trong giai đoạn đầu, dự kiến sẽ kiểm tra vai trò của một nền tảng AI trong việc thúc đẩy bạo lực và liệu các công ty có thể bị coi là chịu trách nhiệm pháp lý đối với hành động của người dùng hay không. OpenAI đã bác bỏ các cáo buộc, lập luận trong vụ án giết người tự tử rằng thủ phạm có tiền sử bệnh tâm thần lâu dài.