Trong các ngày 10 và 11/7, Bộ Tư pháp phối hợp với Quỹ Hanns Seidel Foundation tổ chức Hội thảo kinh nghiệm về trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo.
Cần bổ sung quy định về trách nhiệm pháp lý
Phát biểu tại hội thảo, Thứ trưởng Bộ Tư pháp Trần Tiến Dũng cho rằng chúng ta đang chứng kiến những tác động sâu rộng và mạnh mẽ của cuộc Cách mạng công nghiệp lần thứ tư (CMCN 4.0) với các công nghệ đột phá như: chuỗi khối (Blockchain), dữ liệu lớn (Big Data), rôbốt, Internet kết nối vạn vật (), điện toán đám mây... trong đó nổi bật là sự bùng nổ của công nghệ Trí tuệ nhân tạo (AI).
Sự phát triển và ứng dụng rộng rãi của công nghệ AI trong nhiều lĩnh vực như giao thông, , tài chính, bán lẻ, quảng cáo… mang đến nhiều cơ hội cũng như thách thức, trong đó có những thách thức về mặt pháp lý như vấn đề an ninh, an toàn; vấn đề bảo vệ quyền riêng tư của mỗi cá nhân; vấn đề bảo vệ quyền sở hữu trí tuệ; vấn đề xây dựng tiêu chuẩn ngành; vấn đề xác định trách nhiệm pháp lý của các đối tượng liên quan đến AI.
Ngày 26/1/2021, Thủ tướng Chính phủ đã ban hành Quyết định số 127/QĐ-TTg về Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng đến năm 2030, trong đó Bộ Tư pháp được giao nhiệm vụ xây dựng và hoàn thiện bổ sung các văn bản pháp luật về trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo.
Thứ trưởng Trần Tiến Dũng nhấn mạnh để xây dựng và hoàn thiện bổ sung các văn bản pháp luật về trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo, chúng ta cần hiểu rõ những rủi ro mà trí tuệ nhân tạo mang lại; tham khảo quốc tế trong đó có kinh nghiệm của Liên minh châu Âu và CHLB Đức trong việc ban hành hoặc sửa đổi, bổ sung các văn bản quy phạm pháp luật có liên quan đến trách nhiệm pháp lý của các đối tượng liên quan tới trí tuệ nhân tạo.
Sử dụng AI để phạm tội là tình tiết tăng nặng
Theo bà Lê Thị Vân Anh, Vụ phó Vụ Pháp luật hình sự-hành chính, Bộ Tư pháp, liên quan đến AI có 4 đối tượng liên quan bao gồm (1) chủ thể tạo ra AI những người lập trình, tác giả thiết kế ra phần mềm, (2) chủ sở hữu AI là các nhà sản xuất, nhà đầu tư, (3) người sử dụng là những người đưa AI vào vận hành, giám sát quá trình hoạt động và cuối cùng là (4) bản thân, thực thể AI.
Trong trường hợp những người sản xuất chế tạo, người sở hữu sản phẩm và người sử dụng sản phẩm AI sử dụng AI vào thực hiện hành vi phạm tội thì những đối tượng này phải chịu trách nhiệm hình sự.
BLHS năm 2015 đã quy định một số tội phạm trong lĩnh vực thông tin trong đó có liên quan đến AI. Cụ thể, Điều 285 BLHS quy định tội sản xuất, mua bán, trao đổi hoặc tặng cho công cụ, thiết bị, phần mềm để sử dụng vào mục đích trái pháp luật, Điều 286 BLHS quy định tội phát tán chương trình tin học gây hại cho hoạt động của mạng máy tính, mạng viễn thông, phương tiện điện tử; Điều 287 BLHS tội cản trở gây rối loạn hoạt động mạng máy tính, mạng viễn thông, phương tiện điện tử người khác; Điều 289 BLHS tội xâm nhập trái phép vào mạng máy tính, mạng viễn thông, phương tiện điện tử; Điều 290 BLHS tội sử dụng mạng máy tính, mạng viễn thông, phương tiện điện tử thực hiện hành vi chiếm đoạt tài sản.
Tuy nhiên, với các trường hợp trực tiếp đưa AI vào phạm tội thì pháp luật hình sự hiện tại chưa quy định. Do đó, theo bà Vân Anh, những người liên quan đến AI bao gồm người , người sở hữu, người sử dụng sẽ là chủ thể phạm tội, chịu chế tài xử lý hình sự.
Pháp luật hình sự cần quy định cụ thể để trực tiếp xử lý hành vi liên quan AI như hành vi sản xuất, thiết kế, lập trình sản phẩm AI nhằm mục đích dùng vào thực hiện tội phạm, hành vi sử dụng sản phẩm AI thực hiện hành vi phạm tội.
Từ đó, bà Vân Anh cho rằng có thể quy định sử dụng sản phẩm trí tuệ nhân tạo thực hiện hành vi phạm tội là tình tiết tăng nặng trách nhiệm hình sự. Với hướng quy định này, có thể áp dụng với bất cứ tội danh nào được quy định trong BLHS. Cùng với đó, có thể nghiên cứu quy định phân hóa trách nhiệm hình sự trong trường hợp sử dụng AI để phạm tội như vấn đề đồng phạm, phạm tội có tổ chức…