Nhiều quốc gia ngày nay nhận ra tầm quan trọng của việc quản lý trí tuệ nhân tạo (AI). Hãy xem xét các hành vi pháp lý hiện hành (Nghị định của Tổng thống Liên bang Nga ngày 15 tháng 2 năm 2024 số 124), cũng như các hướng dẫn sử dụng mạng thần kinh trong lĩnh vực bảo mật thông tin.
- Giới thiệu
- Các sáng kiến pháp lý trong lĩnh vực AI trên thế giới
- Quy định về AI ở Liên bang Nga
- Bảo mật thông tin và trí tuệ nhân tạo: vectơ ứng dụng
- kết luận
Giới thiệu
Hiện nay, nhu cầu quản lý trí tuệ nhân tạo đang được thảo luận rộng rãi trong xã hội. Một số quốc gia đã thực hiện các biện pháp theo hướng này và công bố các sáng kiến lập pháp đầu tiên. Hãy cùng hiểu bản chất của những sáng kiến này và thử dự đoán trí tuệ nhân tạo sẽ phát triển như thế nào trong lĩnh vực bảo mật thông tin.
Các sáng kiến pháp lý trong lĩnh vực AI trên thế giới
Vào tháng 12 năm 2023, luật đầu tiên dành riêng cho trí tuệ nhân tạo đã được thông qua ở Liên minh Châu Âu. Mục tiêu chính được tuyên bố của sáng kiến này là đảm bảo an toàn cho hệ thống AI và tôn trọng các quyền và giá trị cơ bản trong khu vực. Một cách tiếp cận dựa trên rủi ro để phân loại hệ thống AI được đề xuất. Nó cho phép bạn kiểm soát việc ra quyết định dựa trên kết quả của trí tuệ nhân tạo trong các lĩnh vực khác nhau của nền kinh tế. Tuy nhiên, hình phạt chỉ dưới hình thức phạt tiền đối với hành vi vi phạm việc phân loại hệ thống AI theo mức độ rủi ro là chưa đủ. Nếu nói về các tập đoàn lớn, thì mức phạt như vậy có thể không khuyến khích họ cố tình giảm thiểu rủi ro khi sử dụng hệ thống AI. Phản hồi về sự phát triển và tuân thủ các hướng dẫn đánh giá toàn diện hệ thống AI và phương pháp tương tác với các cơ quan quản lý cũng đặt ra câu hỏi. Có lẽ mỗi quốc gia thành viên EU sẽ phát triển các quy tắc riêng của mình, nhưng việc thiếu cơ sở rộng rãi các tài liệu phương pháp luận vào thời điểm hiện tại không cho phép chúng ta nói về việc sử dụng an toàn các hệ thống AI.
Cách tiếp cận lập pháp của Hoa Kỳ đối với bảo mật AI bao gồm việc chính phủ và các trung tâm chính phủ kiểm soát sâu sắc mọi quyết định trong lĩnh vực này. Sự can thiệp như vậy giúp có thể đưa nhiều “dấu trang” khác nhau vào hầu hết mọi giải pháp dựa trên công nghệ AI. Vectơ hợp tác quốc tế do các hành vi pháp lý đặt ra giúp có thể mở rộng những “dấu trang” như vậy thông qua các nguồn lực nghiên cứu của chính phủ trong lĩnh vực AI, bao gồm cả các giải pháp và nghiên cứu quốc tế.
Trung Quốc đã đưa ra một số biện pháp tạm thời để quản lý các hệ thống trí tuệ nhân tạo tổng hợp. Hướng đầu tiên của các sáng kiến lập pháp liên quan đến trách nhiệm của các nhà phát triển đối với nội dung do hệ thống AI tạo ra. Trung Quốc yêu cầu các nhà phát triển phải chịu trách nhiệm về mọi hậu quả tiêu cực hoặc việc sử dụng trái phép hệ thống AI. Điều này cho phép Trung Quốc phủ nhận mọi liên quan đến sự hiện diện của cửa hậu trong các hệ thống AI được phát triển để sử dụng quốc tế. Họ nhấn mạnh rằng trách nhiệm thuộc về các nhà phát triển chứ không phải chính phủ. Hướng thứ hai liên quan đến yêu cầu hệ thống AI tuân thủ các giá trị xã hội chủ nghĩa. Những yêu cầu này chỉ áp dụng cho chính phủ Trung Quốc và nhấn mạnh sự quan tâm của các cơ quan chính phủ trong việc duy trì quyền kiểm soát đáng kể đối với bất kỳ công nghệ nào có thể được sử dụng để chống lại chính phủ hoặc vi phạm các nguyên tắc xã hội chủ nghĩa. Nhìn chung, các biện pháp tạm thời này cho thấy Trung Quốc cam kết kiểm soát và chịu trách nhiệm trong việc sử dụng hệ thống AI tổng hợp để ngăn chặn những hậu quả tiêu cực và việc sử dụng hệ thống AI chống lại chính phủ.
Quy định về AI ở Liên bang Nga
Nghị định của Tổng thống Liên bang Nga ngày 10 tháng 10 năm 2019 số 490 “Về phát triển trí tuệ nhân tạo ở Liên bang Nga” phê duyệt Chiến lược quốc gia về phát triển trí tuệ nhân tạo giai đoạn đến năm 2030. Chiến lược này là chương trình chính tài liệu nhằm phát triển và thực hiện các giải pháp trong nước nhằm đảm bảo đưa ra những đổi mới trong mọi lĩnh vực hoạt động kinh tế và đời sống hàng ngày của người dân.
Gần đây nhất, theo sắc lệnh của Tổng thống Liên bang Nga ngày 15 tháng 2 năm 2024 số 124, những thay đổi đã được thực hiện đối với cả nghị định năm 2019 và bản thân “Chiến lược”. Đặc biệt, hiện nay các cơ quan hành pháp liên bang phải được hướng dẫn bởi các quy định của “Chiến lược” khi xây dựng và triển khai các văn bản quy hoạch chiến lược ngành của Liên bang Nga. Một thuật ngữ mới cũng đã xuất hiện – “công nghệ trí tuệ nhân tạo đáng tin cậy” – và một điểm quan trọng trong danh sách các nhiệm vụ chính để phát triển AI ở Liên bang Nga: bắt buộc giới thiệu các công nghệ trí tuệ nhân tạo đáng tin cậy trong các lĩnh vực sử dụng nó. an ninh của Liên bang Nga có thể bị tổn hại.
Năm 2019, nhằm nâng cao hiệu quả công tác tiêu chuẩn hóa trong lĩnh vực AI ở cấp quốc gia và quốc tế, Ủy ban Tiêu chuẩn Kỹ thuật số 164 “Trí tuệ nhân tạo” đã được thành lập. Ông làm việc chặt chẽ với Ủy ban Kỹ thuật số 362, An toàn thông tin. Điều đáng chú ý là Nga và Ấn Độ đã bắt đầu phát triển dự án Sách Trắng để đánh giá mức độ tuân thủ các yêu cầu của công nghệ trí tuệ nhân tạo đối với chúng. Kể từ tháng 2 năm 2024, Ban thư ký Ủy ban Kỹ thuật số 164 sẽ tổ chức các cuộc họp hội thảo khoa học thường trực về quy định quốc tế về trí tuệ nhân tạo; các cuộc họp sẽ được tổ chức mỗi tháng một lần. Vì vậy, rõ ràng là các vấn đề về quy định AI ở Liên bang Nga đang được chú ý đáng kể.
Bảo mật thông tin và trí tuệ nhân tạo: vectơ ứng dụng
Trí tuệ nhân tạo chắc chắn có tiềm năng trong lĩnh vực bảo mật thông tin. Liên quan đến Nga, có thể phân biệt ba hướng chính ở đây.
Hướng đầu tiên là tạo ra các công cụ bảo mật thông tin (ISIS) đáng tin cậy bằng công nghệ AI. Trong những năm gần đây, công nghệ trí tuệ nhân tạo ngày càng thâm nhập vào công cụ của các nhà quản trị an ninh thông tin, và do đó việc tạo ra các hệ thống an ninh thông tin đáng tin cậy đang trở thành xu hướng phát triển rõ ràng nhất. Cần đặc biệt chú ý đến việc triển khai công nghệ trí tuệ nhân tạo trong các công cụ bảo mật thông tin.
Hướng phát triển thứ hai là tích hợp trí tuệ nhân tạo vào các công cụ phát triển phần mềm an toàn. Điều đặc biệt quan trọng là việc tạo ra các công cụ thông minh để phân tích mã nguồn tìm lỗ hổng, “dấu trang” và các vấn đề liên quan đến sự tương tác của hệ thống bảo mật thông tin. Nếu không có những giải pháp như vậy thì việc tạo ra các hệ thống thông minh trong lĩnh vực bảo mật thông tin sẽ trở nên bất khả thi.
Hướng thứ ba là đào tạo các chuyên gia có trình độ. Việc đưa trí tuệ nhân tạo vào quá trình giáo dục, đào tạo quản trị viên và nhà phát triển công cụ bảo mật thông tin sử dụng trí tuệ nhân tạo đóng vai trò quan trọng trong việc tạo ra các giải pháp bảo mật thông tin đáng tin cậy. Xét đến nhu cầu dự kiến tăng cao về chuyên gia trong lĩnh vực trí tuệ nhân tạo, cần xây dựng các biện pháp đào tạo ít nhất 7-10 nghìn người mỗi năm.
Sự phát triển của trí tuệ nhân tạo trong lĩnh vực an ninh thông tin đến năm 2030 sẽ cho phép hình thành các hệ sinh thái đầy đủ chức năng. Mỗi hệ thống công nghệ thông tin sẽ chứa đựng các thành phần trí tuệ nhân tạo có khả năng hiểu biết toàn diện về hoạt động của các thành phần liên quan. Điều này sẽ đòi hỏi sự tiêu chuẩn hóa đáng kể trong việc phát triển các giải pháp bảo mật thông tin sử dụng AI. Chuyển động được quan sát của cộng đồng chuyên gia theo hướng này cho thấy việc tạo ra một môi trường đáng tin cậy cho việc sử dụng trí tuệ nhân tạo trong bảo mật thông tin.
Cũng cần phải tính đến sự phát triển của các công nghệ khác, chẳng hạn như việc tạo ra các bản sao kỹ thuật số. Công nghệ này sẽ giúp tạo ra một bản sao kỹ thuật số hoàn chỉnh của hệ thống thông tin, trong đó các giải pháp dựa trên AI khác nhau sẽ cho phép thực hiện các thử nghiệm để đánh giá tác động lên hệ thống trong thời gian thực. Điều này có thể được coi là sử dụng “hộp cát ở tốc độ tối đa”.
Việc phát triển và triển khai trí tuệ nhân tạo trong lĩnh vực bảo mật thông tin đòi hỏi một cách tiếp cận sáng tạo và chú ý đến tính đa dạng về khả năng của các công nghệ hiện đại. Sự phát triển như vậy sẽ giúp tạo ra các hệ thống bảo mật thông tin đáng tin cậy, hiệu quả và thông minh.
kết luận
Nếu không có sáng kiến lập pháp quốc tế quan trọng trong lĩnh vực AI, những sự kiện thảm khốc đối với toàn thể nhân loại có thể xảy ra.
Giả sử rằng các quốc gia và cộng đồng quốc tế không tìm được cách tiếp cận thống nhất đối với quy định quốc tế trong lĩnh vực AI. Điều này có thể dẫn đến một kịch bản bi quan nào cho sự phát triển công nghệ? Sự phát triển và ứng dụng không kiểm soát của công nghệ AI trong cuộc sống hiện đại hàng ngày của nhân loại sẽ ảnh hưởng như thế nào đến số phận nền văn minh của chúng ta? Hãy xem xét dự đoán của Raymond Kurzweil về điểm kỳ dị công nghệ vào năm 2045. Điểm kỳ dị công nghệ nên được hiểu là thời điểm mà sự phát triển công nghệ trở nên không thể kiểm soát, dẫn đến những thay đổi căn bản về bản chất của nền văn minh nhân loại.
Hiện tại, chúng ta đang chứng kiến sự triển khai tích cực của công nghệ AI trong phần lớn các khía cạnh của xã hội: chính trị, kinh tế, đạo đức, khoa học, văn hóa, v.v. Trong mỗi khía cạnh này, AI đã và đang thay đổi cuộc sống con người. Các chính sách sử dụng các công cụ có mục tiêu để thuyết phục cử tri và Canada đã sử dụng AI để đưa ra các khuyến nghị cải cách bầu cử ngay từ năm 2017. Tác động kinh tế của AI có thể được đánh giá cả tích cực (tăng hiệu quả trong các lĩnh vực khác nhau của nền kinh tế) và tiêu cực (trong tương lai gần). , “thất nghiệp công nghệ” sẽ xuất hiện, dẫn đến sự phân chia thu nhập và của cải trong xã hội ngày càng lớn hơn). Những thay đổi tương tự đang diễn ra trong lĩnh vực xã hội: tình trạng bất bình đẳng xã hội gia tăng do sự sẵn có của công nghệ và sự tham gia của họ vào cuộc sống và công việc. Những xu hướng tương tự cũng có thể nhìn thấy được trong khoa học, văn hóa và đạo đức.
Điều này có thể dẫn đến điều gì? Theo mô hình của Kurzweil, trong tương lai gần (2040–2050), toàn bộ hành tinh Trái đất sẽ biến thành một chiếc máy tính khổng lồ.
Chúng ta hãy lưu ý một trong những luận điểm cho thấy tại sao điểm kỳ dị công nghệ không đáng sợ: các công nghệ hiện đại được tạo ra cho xã hội dưới sự kiểm soát của con người và có thể quản lý được. Tuy nhiên, bạn nên tự hỏi mình câu hỏi: chúng ta có chắc chắn về tính xác thực của luận điểm này không?
Do đó, cách chắc chắn duy nhất để ngăn chặn kịch bản tiêu cực về điểm kỳ dị AI chỉ có thể là phát triển một loạt các biện pháp quản lý rộng rãi, bao gồm cả lĩnh vực tiêu chuẩn đạo đức. Đồng thời, cần xem xét một khía cạnh quan trọng của nghiên cứu hiện đại: sự phát triển của công nghệ AI đang diễn ra với tốc độ ngày càng tăng, điều đó có nghĩa là việc điều chỉnh sự phát triển này thậm chí còn phải tiến hành nhanh hơn, với tốc độ nhanh hơn. Nếu không, nhân loại sẽ không tránh khỏi sự xuất hiện của trí tuệ nhân tạo có khả năng đưa ra những quyết định có thể gây hại cho con người hoặc môi trường.