Anh cáo buộc Apple che giấu lạm dụng tình dục trẻ em
Anh đã cáo buộc Apple che giấu nhiều trường hợp lạm dụng hình ảnh trẻ em trên nền tảng của mình.
Vào năm 2022, Apple đã từ bỏ kế hoạch phát hiện Tài liệu lạm dụng tình dục trẻ em (CSAM) sau những cáo buộc rằng hệ thống này có thể bị lạm dụng để giám sát người dùng.
Thay vào đó, Apple chuyển sang một bộ tính năng gọi là An toàn Giao tiếp, giúp làm mờ các bức ảnh khỏa thân được gửi cho trẻ em. Tuy nhiên, những biện pháp này không đủ để ngăn chặn hoàn toàn việc lạm dụng và báo cáo các sự cố CSAM.
Theo The Guardian, Hiệp hội Quốc gia Phòng chống Hành vi Tàn ác đối với Trẻ em (NSPCC) của Vương quốc Anh cho biết Apple đã đánh giá thấp rất nhiều sự cố CSAM trên các dịch vụ của mình như iCloud, FaceTime và iMessage.
Tất cả các công ty công nghệ Mỹ đều được yêu cầu báo cáo các trường hợp CSAM phát hiện được cho Trung tâm Quốc gia về Trẻ em Mất tích & Bị bóc lột (NCMEC), và trong năm 2023, Apple đã thực hiện 267 báo cáo.
Tuy nhiên, NSPCC đã phát hiện ra rằng chỉ riêng ở Anh và xứ Wales, Apple đã liên quan đến 337 vụ vi phạm trong khoảng thời gian từ tháng 4.2022 đến tháng 3.2023.
Richard Collard, người đứng đầu chính sách trực tuyến về an toàn trẻ em tại NSPCC, bày tỏ lo ngại: “Có sự khác biệt đáng lo ngại giữa số vụ tội phạm hình ảnh lạm dụng trẻ em ở Anh diễn ra trên các dịch vụ của Apple và số lượng báo cáo toàn cầu gần như không đáng kể về nội dung lạm dụng mà họ gửi cho chính quyền. Apple rõ ràng đang đi sau nhiều công ty cùng ngành trong việc giải quyết vấn đề lạm dụng tình dục trẻ em khi tất cả các công ty công nghệ nên đầu tư vào sự an toàn và chuẩn bị cho việc triển khai Đạo luật An toàn Trực tuyến ở Anh”.
So với Apple, các công ty công nghệ khác đã báo cáo số lượng các trường hợp CSAM cao hơn đáng kể. Google đã báo cáo hơn 1.470.958 trường hợp vào năm 2023. Trong cùng thời gian, Meta đã báo cáo 17.838.422 trường hợp trên Facebook và 11.430.007 trường hợp trên Instagram. Đáng chú ý, WhatsApp của Meta, cũng được mã hóa như iMessage của Apple, đã báo cáo khoảng 1.389.618 trường hợp CSAM bị nghi ngờ vào năm 2023.
Sự chênh lệch này đã đặt ra nhiều câu hỏi về cam kết của Apple đối với việc bảo vệ trẻ em trên nền tảng của mình. Một số chuyên gia về lạm dụng trẻ em lo ngại rằng Apple chưa thực sự đối phó hiệu quả với vấn đề này, và sự thiếu minh bạch trong báo cáo của họ có thể làm tình hình trở nên tồi tệ hơn.
Trong khi đó, Apple chỉ đề cập đến The Guardian những tuyên bố trước đây của họ về quyền riêng tư tổng thể của người dùng, mà không giải thích rõ ràng về số lượng báo cáo thấp hơn nhiều so với các công ty khác.
Một yếu tố khác cũng được đề cập là sự lo ngại về hình ảnh CSAM do AI tạo ra, khi công nghệ phát triển ngày càng mạnh mẽ, khả năng tạo ra các hình ảnh chân thực từ trí tuệ nhân tạo cũng tăng lên. Tuy nhiên, Apple Intelligence, dự kiến ra mắt, sẽ không tạo ra những hình ảnh chân thực này, làm giảm bớt một phần lo ngại từ cộng đồng.
Trong bối cảnh áp lực từ công chúng và các tổ chức bảo vệ trẻ em ngày càng tăng, Apple sẽ cần phải có những biện pháp cụ thể và minh bạch hơn để đối phó với vấn đề lạm dụng tình dục trẻ em trên các dịch vụ của mình.
Việc thiếu minh bạch và báo cáo đầy đủ có thể dẫn đến những hậu quả nghiêm trọng, không chỉ đối với công ty mà còn đối với hàng triệu trẻ em sử dụng các dịch vụ của Apple trên toàn thế giới. Việc đầu tư vào các biện pháp bảo vệ và giám sát hiệu quả sẽ là bước đi cần thiết để đảm bảo an toàn cho người dùng trẻ tuổi, đồng thời duy trì uy tín và trách nhiệm của Apple trong ngành công nghệ.
Nguồn: Laodong.vn