Các phiên bản beta của iOS 18, iPadOS 18 và macOS Sequoia đã giới thiệu Apple Intelligence, dựa trên trí tuệ nhân tạo. Nó có an toàn như Apple đang cố nói với chúng ta không? Trợ lý AI cá nhân gây ra những rủi ro gì về quyền riêng tư cho chủ sở hữu iPhone?
- Giới thiệu
- Apple Intelligence: tiềm năng và rủi ro
- Kiến trúc bảo mật thông minh của Apple
- Phân tích lỗ hổng tiềm năng của Apple Intelligence
- Các khía cạnh pháp lý và đạo đức của việc đưa AI vào hệ sinh thái Apple
- OpenAI có thể tin cậy được không?
- Cam kết của Apple về tính minh bạch của AI
- kết luận
Giới thiệu
Trí tuệ nhân tạo (AI) đang làm thay đổi mọi lĩnh vực của đời sống xã hội. Tại buổi thuyết trình thường niên của Hội nghị các nhà phát triển toàn cầu vào ngày 10 tháng 6 năm 2024, Apple tuyên bố sẽ tham gia cuộc đua công nghệ: các chức năng AI đang được tích hợp vào iOS, iPadOS và macOS dưới thương hiệu Apple thông minh. Nhưng bản chất của các khả năng tổng hợp được giới thiệu (Siri, Genmoji mới, chỉnh sửa ảnh, video, v.v.) tạo ra những mối đe dọa mới đối với quyền riêng tư và làm mờ ranh giới của sự can thiệp của AI vào cuộc sống riêng tư.
Apple Intelligence: tiềm năng và rủi ro
Apple Intelligence đã triển khai mô hình GPT-4o và sẽ sớm thêm Google Gemini để xử lý văn bản trên đám mây, tạo nội dung, chỉnh sửa, tóm tắt và trả lời truy vấn. Một mô hình tương tự như DALL-E tạo ra Genmoji – biểu tượng cảm xúc do người dùng tạo. Mô hình đám mây riêng của Apple được sử dụng trong ứng dụng Ảnh iOS và Siri mới.
Apple đã tự bảo vệ mình trước việc rò rỉ dữ liệu bí mật của người dùng và truy cập trái phép bằng cách giới thiệu cơ chế Điện toán đám mây riêng. Nó đảm bảo rằng dữ liệu cá nhân chỉ được sử dụng để xử lý một yêu cầu cụ thể tới AI trên đám mây, không được lưu trữ sau khi phản hồi và ngay cả nhân viên Apple cũng không thể truy cập được.
Điện toán đám mây riêng chạy trên các máy chủ Apple Silicon chuyên dụng với các mô-đun bảo mật phần cứng chuyên dụng. Việc xử lý cục bộ hầu hết các tác vụ AI (trên chính thiết bị) sẽ giảm thiểu lượng dữ liệu được gửi lên đám mây và giảm các rủi ro liên quan đến nó.
Secure Enclave, một tính năng bảo mật phần cứng dành cho chip Apple Silicon, cung cấp khả năng bảo vệ bổ sung cho các mẫu máy cục bộ và thông tin người dùng. Cuối cùng, phân tích AI “thông minh” về nội dung đến trên thiết bị sẽ tự động nhận ra các nỗ lực lừa đảo và lây nhiễm vi-rút, đồng thời ngăn chặn rò rỉ dữ liệu.
Tuy nhiên, việc các mẫu máy không thuộc quyền kiểm soát của Apple có quyền truy cập vào dữ liệu người dùng đã tạo ra những lỗ hổng và rủi ro mới về việc phát tán thông tin bí mật ra ngoài hệ sinh thái của công ty. Việc đào tạo các mô hình AI trong iCloud sẽ dẫn đến việc tập trung lượng lớn dữ liệu cá nhân. Điều này khiến nền tảng đám mây của Apple trở thành mục tiêu hấp dẫn của tin tặc.
Kiến trúc bảo mật thông minh của Apple
Apple dựa vào cơ chế bảo mật phần cứng, thực thi cục bộ các hoạt động và mã hóa đầu cuối của thông tin liên lạc. Ví dụ, Private Cloud Compute được thiết kế để thực hiện an toàn các tác vụ AI tốn nhiều tài nguyên trong khi giảm thiểu bề mặt tấn công và khả năng rò rỉ dữ liệu.
Tuy nhiên, một lần nữa, các mô hình được đào tạo về thông tin người dùng, một số dữ liệu này được chuyển sang OpenAI và AI cục bộ của hệ sinh thái Apple dễ bị tấn công bởi phần mềm độc hại.
Vì vậy, bảo mật phần cứng không phải là thuốc chữa bách bệnh như công ty tuyên bố. Để hiểu đầy đủ tình hình, cần phải dành chút thời gian cho việc thu thập và xử lý số liệu thống kê, kiểm toán, phân cấp thẩm quyền và tính toán bí mật (Máy tính bí mật).
Phân tích lỗ hổng tiềm năng của Apple Intelligence
Ngay cả kiến trúc bảo mật tiên tiến của Apple Intelligence cũng không đảm bảo bảo vệ dữ liệu tuyệt đối. Tin tặc có thể cố gắng xâm nhập cơ sở hạ tầng đám mây của Apple, tấn công chuỗi cung ứng dịch vụ AI hoặc chặn lưu lượng truy cập mạng. Việc tập trung kiểm soát quyền truy cập thông qua Apple ID và các lỗ hổng tiềm ẩn trong vi dịch vụ sẽ tạo thêm rủi ro. Để giảm bớt chúng, công ty có thể phải sử dụng các vỏ phần cứng và mật mã kháng lượng tử, đồng thời phân cấp hệ thống nhận dạng người dùng.
Vì vậy, vụ rò rỉ mã đóng của các công cụ nội bộ của Apple lên darknet gần đây đã trở thành một tín hiệu đáng báo động. Có thể đây là kết quả của một vụ hack thành công mạng công ty.
Cũng đáng được đề cập là hoạt động gián điệp mạng “Triangulation” gần đây, được các chuyên gia của Kaspersky Lab phát hiện trong khi phân tích lưu lượng truy cập đáng ngờ từ iPhone của công ty, khi những kẻ tấn công có thể giới thiệu mã độc nhiều giai đoạn vượt qua tính năng bảo vệ phần cứng của bộ xử lý Apple bằng cách khai thác lỗ hổng bảo mật thấp không có giấy tờ. -các chức năng cấp độ (thanh ghi MMIO, hướng dẫn phông chữ “ fnt_ADJUST”, v.v.). Điều này cho phép tin tặc kiểm soát hoàn toàn các thiết bị bị nhiễm, vượt qua các hệ thống bảo mật iOS tiêu chuẩn, bao gồm Secure Enclave và cho phép chúng đánh cắp nhiều loại dữ liệu bí mật của người dùng.
Nếu ngay cả Kaspersky Lab cũng không nhận thấy hoạt động của một phần mềm độc hại khai thác lỗ hổng phần cứng “fnt_ADJUST” tồn tại từ những năm 1990 đến 2023 trong nhiều năm thì chúng ta có thể nói gì về người dùng và tổ chức thông thường? Với những dấu hiệu gián tiếp cho thấy những kẻ tấn công đã sử dụng một cách khai thác tốn kém để giữ cho iPhone bị nhiễm virus sau khi khởi động lại, rất có thể chúng sẽ được tài trợ ở cấp tiểu bang.
Mặc dù không có biện pháp bảo vệ đảm bảo chống lại các lỗ hổng zero-day, nhưng chúng ta có thể nói về loại bảo mật dữ liệu nào trong Apple Intelligence? Nếu trước đây chỉ có tài liệu, ảnh, lịch sử cuộc gọi và thư từ của người dùng trong Telegram hoặc WhatsApp mới gặp mối đe dọa, thì lỗ hổng “zero-day” ẩn tiếp theo có thể dẫn đến rò rỉ toàn bộ ấn tượng kỹ thuật số của cá nhân, được thu thập bởi mạng thần kinh của Apple và chuyển đi xử lý lên đám mây của công ty hoặc trực tiếp tại OpenAI. Việc vi phạm bảo mật như vậy sẽ gây ra hậu quả không thể khắc phục đối với hàng chục triệu chủ sở hữu iPhone.
Do đó, trước khi triển khai Apple Intelligence, công ty được yêu cầu cung cấp biện pháp bảo vệ nhiều lớp chống lại các cuộc tấn công mạng và đảm bảo rằng cả các lỗ hổng phần cứng hoặc phần mềm trước đây và mới sẽ không gây nguy hiểm cho tính bảo mật của dữ liệu người dùng được xử lý bởi mạng thần kinh. Giờ đây, nỗ lực giành lấy vị trí dẫn đầu trong cuộc đua công nghệ bằng bất cứ giá nào có thể dẫn đến thiệt hại nghiêm trọng trong trường hợp rò rỉ “dữ liệu lớn” trên quy mô lớn do một vi phạm khác về an ninh của hệ sinh thái.
Các khía cạnh pháp lý và đạo đức của việc đưa AI vào hệ sinh thái Apple
Pháp luật hiện hành về dữ liệu cá nhân không tính đến đầy đủ các chi tiết cụ thể của việc sử dụng AI. Ngày nay, chỉ có ở Liên minh Châu Âu mới xuất hiện những quy định thô sơ đầu tiên về AI. Trong khi đó, Apple Intelligence đã tạo hồ sơ cá nhân kỹ thuật số chi tiết, xâm phạm quyền riêng tư.
Việc sử dụng rộng rãi AI trong các sản phẩm của Apple có thể dẫn đến sự bất đối xứng gia tăng giữa công ty và người dùng, và sự xuất hiện của các rủi ro phân biệt đối xử kỹ thuật số thông qua việc lập hồ sơ. Giải quyết những vấn đề này sẽ đòi hỏi phải phát triển các nguyên tắc mới để điều chỉnh AI, đưa ra các hoạt động kiểm toán bên ngoài, hạn chế việc ra quyết định tự động và sửa đổi luật về quyền riêng tư. Kiểm soát AI và tìm kiếm sự cân bằng giữa đổi mới và quyền con người đang trở thành những chủ đề chính trong kỷ nguyên số. Người ta cũng lo ngại về tác động của AI đối với thị trường lao động, rủi ro thất nghiệp do công nghệ, bất bình đẳng kinh tế gia tăng và mất ổn định.
OpenAI có thể tin cậy được không?
Việc kết hợp mô hình GPT-4o với các dịch vụ của Apple cũng đặt ra câu hỏi. OpenAI có thể được tin cậy đến mức nào để xử lý dữ liệu người dùng? Những rò rỉ trước đây và hoạt động kiếm tiền từ thông tin của công ty đã làm dấy lên nghi ngờ về tính an toàn của dữ liệu được truyền đi.
Mối quan ngại này đã được Elon Musk bày tỏ, ví dụ: theo ông, có nguy cơ tiết lộ thông tin cá nhân không đúng cách của bên thứ ba. Đặc biệt đáng báo động là khả năng thông tin cá nhân từ Apple vô tình xâm nhập vào cơ sở dữ liệu OpenAI trong quá trình đào tạo bổ sung của mô hình GPT-4o.
Hình 1. Bài đăng của Elon Musk trên mạng xã hội X
Đáp lại những lời chỉ trích, Apple nhấn mạnh tính chất tự nguyện của việc sử dụng các chức năng GPT-4o và thực tế là dữ liệu được truyền đến dịch vụ đều được ẩn danh. Nhưng chỉ đảm bảo thôi thì chưa đủ: cần phải có những đảm bảo rõ ràng và có thể kiểm chứng về tính bảo mật.
Cũng bởi tin nhắn Associated Press Ngày 14 tháng 6 năm 2024, OpenAI đã chào đón Paul Nakasone, cựu chỉ huy Bộ Tư lệnh Không gian mạng Hoa Kỳ và giám đốc Cơ quan An ninh Quốc gia (NSA), vào ban giám đốc của tổ chức này. Công ty tin rằng Paul sẽ giúp bảo vệ ChatGPT khỏi “những kẻ tấn công ngày càng tinh vi”.
Hình 2. Paul Nakasone
Tại NSA, Nakasone giữ chức giám đốc, giám sát các chương trình giám sát và tấn công mạng vào các mục tiêu nước ngoài. Tại OpenAI, ông sẽ phục vụ trong một ủy ban an ninh mới, ủy ban này sẽ tư vấn cho hội đồng quản trị về các vấn đề bảo vệ dữ liệu quan trọng. Với quyền truy cập vào kho thông tin cá nhân khổng lồ của OpenAI, Nakasone (về mặt lý thuyết) có thể sử dụng thông tin đó để mang lại lợi ích cho các cơ quan tình báo Hoa Kỳ.
Nói cách khác, Apple, thông qua quan hệ đối tác với OpenAI, thực sự đã cung cấp cho các cơ quan tình báo Hoa Kỳ quyền truy cập vào dữ liệu hệ sinh thái bí mật. Do đó, khi liên lạc với GPT-4o, người dùng sẽ chia sẻ dữ liệu cá nhân không chỉ với chính công ty và OpenAI mà còn với các cơ quan tình báo Mỹ. Vì vậy, những đảm bảo vô căn cứ về khả năng bảo vệ quyền riêng tư đáng tin cậy là chưa đủ. Apple phải cung cấp các đảm bảo pháp lý về quyền riêng tư của dữ liệu người dùng và cung cấp cơ chế kiểm toán độc lập cho Apple Intelligence (điều này có vẻ khó xảy ra).
Cam kết của Apple về tính minh bạch của AI
Tuy nhiên, Apple đang thực hiện những bước quan trọng hướng tới sự cởi mở hơn. Ví dụ: công ty đã xuất bản mã nguồn cho các mô-đun Điện toán đám mây riêng tư quan trọng, cho phép các chuyên gia độc lập xác minh các tuyên bố về cường độ mã hóa, bảo mật xử lý và thực thi bí mật các tác vụ AI. Sự “minh bạch” tự nguyện này của cơ sở hạ tầng đám mây là điều hiếm thấy đối với những gã khổng lồ công nghệ và có thể trở thành chuẩn mực mới của ngành. Đúng, ở đây có một số hạn chế: những người đam mê sẽ chỉ có thể nghiên cứu phần đã xuất bản chứ không thể nghiên cứu toàn bộ mã Điện toán đám mây riêng tư.
kết luận
Sự ra đời của Apple Intelligence đánh dấu buổi bình minh của một kỷ nguyên mới mà rủi ro rò rỉ dữ liệu cá nhân là quá lớn. Các tiêu chuẩn pháp lý và đạo đức hiện tại chưa sẵn sàng cho thực tế mới. Do đó, những gã khổng lồ công nghệ sẽ cần chứng minh việc sử dụng dữ liệu cá nhân một cách có đạo đức trong tương lai gần trong khi khung pháp lý được phát triển. Cuối cùng, chính chúng ta, những người dùng, phải cùng nhau kiểm tra ranh giới của những gì được trí tuệ nhân tạo cho phép.
Điều này trái ngược với các tiêu chuẩn nghiêm ngặt về tính minh bạch và quyền riêng tư với những nguy cơ tiềm tàng khi tích hợp các mô hình AI của bên thứ ba vào hệ sinh thái của Apple.