Hướng dẫn của cha mẹ: 'trí tuệ nhân tạo' được sử dụng để đánh giá người giữ trẻ dựa trên lịch sử phương tiện truyền thông xã hội của họ
Khi Jessie Battaglia bắt đầu tìm kiếm một người giữ trẻ mới cho đứa con trai một tuổi của mình, cô muốn có nhiều thông tin hơn có thể nhận được từ kiểm tra lý lịch hình sự, nhận xét của phụ huynh và một cuộc phỏng vấn trực diện.
Vì vậy, cô đã chuyển sang Predictim, một dịch vụ trực tuyến sử dụng "trí tuệ nhân tạo tiên tiến" để đánh giá tính cách của một người giữ trẻ và nhắm máy quét của nó vào hàng ngàn bài đăng trên Facebook, Twitter và Instagram của một ứng cử viên.
Hệ thống này đưa ra một "đánh giá rủi ro" tự động của một ứng cử viên 24 tuổi, nói rằng cô ta có "nguy cơ rất thấp" là một kẻ lạm dụng ma túy. Nhưng nó đã đưa ra một đánh giá rủi ro cao hơn một chút - hai trong số năm - vì bắt nạt, quấy rối, "thiếu tôn trọng" và có "thái độ xấu".
Hệ thống không giải thích được tại sao nó lại đưa ra quyết định đó. Nhưng Battaglia, người đã tin rằng người trông trẻ là đáng tin cậy, đột nhiên cảm thấy đau đớn vì nghi ngờ.
"Phương tiện truyền thông xã hội cho thấy tính cách của một người", Battaglia, 29 tuổi, sống gần Los Angeles, nói. "Vậy tại sao cô ấy vào ở một mà không phải một?"
Predictim đang cung cấp cho cha mẹ cùng một cuốn sách mà hàng chục công ty công nghệ khác đang bán cho các nhà tuyển dụng trên khắp thế giới: hệ thống trí tuệ nhân tạo phân tích lời nói, nét mặt và lịch sử trực tuyến của một người với lời hứa tiết lộ những khía cạnh ẩn giấu trong cuộc sống riêng tư của họ.
Công nghệ này đang định hình lại cách một số công ty tiếp cận tuyển dụng, tuyển dụng và đánh giá công nhân, cung cấp cho nhà tuyển dụng một cái nhìn vô song về các ứng cử viên thông qua một làn sóng đánh giá và giám sát tâm lý xâm lấn mới.
Công ty công nghệ Fama nói rằng họ sử dụng AI cho phương tiện truyền thông xã hội của nhân viên cảnh sát vì "hành vi độc hại" và cảnh báo cho ông chủ của họ. Và công ty công nghệ tuyển dụng HireVue, làm việc với các công ty như Geico, Hilton và Unilever, cung cấp một hệ thống tự động phân tích giọng nói, lựa chọn từ ngữ và chuyển động khuôn mặt của ứng viên trong các cuộc phỏng vấn video để dự đoán kỹ năng và thái độ của họ trong công việc. (Các ứng viên được khuyến khích mỉm cười để có kết quả tốt nhất.)
Nhưng các nhà phê bình cho rằng Dự đoán và các hệ thống tương tự thể hiện sự nguy hiểm của chính họ bằng cách đưa ra các quyết định tự động và có thể thay đổi cuộc sống hầu như không được kiểm soát.
Các hệ thống phụ thuộc vào các thuật toán hộp đen cung cấp ít chi tiết về cách chúng làm giảm sự phức tạp của đời sống nội tâm của một người thành một tính toán về đức hạnh hay tác hại. Và ngay cả khi công nghệ của Predictim ảnh hưởng đến suy nghĩ của cha mẹ, nó vẫn hoàn toàn không được chứng minh, phần lớn không giải thích được và dễ bị thiên vị thầm lặng về cách một người giữ trẻ thích hợp nên chia sẻ, nhìn và nói.
Jeff Chester, giám đốc điều hành của Trung tâm Dân chủ Kỹ thuật số, một nhóm vận động công nghệ cho biết, có "sự điên cuồng trong việc nắm bắt sức mạnh của AI để đưa ra mọi quyết định mà không đảm bảo nó có trách nhiệm với con người". "Giống như mọi người đã uống Kool-Aid kỹ thuật số và nghĩ rằng đây là một cách thích hợp để chi phối cuộc sống của chúng ta."
Các bản quét của Predictim phân tích toàn bộ lịch sử phương tiện truyền thông xã hội của một người giữ trẻ, trong đó, đối với nhiều người trông trẻ nhất, có thể bao quát hầu hết cuộc sống của họ. Và những người trông nom được bảo rằng họ sẽ gặp bất lợi lớn cho các công việc cạnh tranh nếu họ từ chối.
Giám đốc và đồng sáng lập của Salicta, Sal Parsa, cho biết công ty, đã ra mắt vào tháng trước như là một phần của Đại học California tại vườn ươm công nghệ SkyDeck của Berkeley, đặt câu hỏi đạo đức về việc sử dụng công nghệ này một cách nghiêm túc. Theo ông, các bậc cha mẹ nên xem xếp hạng là một người bạn đồng hành "có thể hoặc không thể phản ánh các thuộc tính thực tế của người trông nom".
Nhưng nguy cơ thuê một người giữ trẻ có vấn đề hoặc bạo lực, ông nói thêm, làm cho AI trở thành một công cụ cần thiết cho bất kỳ cha mẹ nào muốn giữ an toàn cho con mình.
"Nếu bạn tìm kiếm những người giữ trẻ lạm dụng trên Google, bạn sẽ thấy hàng trăm kết quả ngay bây giờ", ông nói. "Có những người ngoài kia mắc bệnh tâm thần hoặc sinh ra là ác quỷ. Mục tiêu của chúng tôi là làm bất cứ điều gì có thể để ngăn chặn họ."
Quá trình quét Dự đoán bắt đầu ở mức 24, 99 đô la và yêu cầu tên và địa chỉ email của người giữ trẻ và sự đồng ý của bà để chia sẻ quyền truy cập rộng rãi vào các tài khoản truyền thông xã hội của mình. Người giữ trẻ có thể từ chối, nhưng một phụ huynh được thông báo về sự từ chối của cô ấy, và trong email, người giữ trẻ được thông báo "phụ huynh quan tâm sẽ không thể thuê bạn cho đến khi bạn hoàn thành yêu cầu này."
Giám đốc điều hành của Predictim cho biết họ sử dụng thuật toán xử lý ngôn ngữ và phần mềm nhận dạng hình ảnh được gọi là "thị giác máy tính" để đánh giá các bài đăng trên Facebook, Twitter và Instagram của người giữ trẻ để tìm manh mối về cuộc sống ngoại tuyến của họ. Phụ huynh được cung cấp báo cáo độc quyền và không phải thông báo cho người trông nom kết quả.
Phụ huynh có thể, có lẽ, nhìn vào chính các tài khoản truyền thông xã hội công cộng của họ. Nhưng các báo cáo do máy tính tạo ra hứa hẹn sẽ kiểm tra chuyên sâu nhiều năm hoạt động trực tuyến, rút gọn thành một chữ số duy nhất: một giải pháp đơn giản đến say mê cho một nhiệm vụ không thực tế.
Xếp hạng rủi ro được chia thành nhiều loại, bao gồm nội dung rõ ràng và lạm dụng thuốc. Khởi nghiệp cũng đã quảng cáo rằng hệ thống của nó có thể đánh giá người giữ trẻ về các đặc điểm tính cách khác, như sự lịch sự, khả năng làm việc với người khác và "tính tích cực".
Công ty hy vọng sẽ thúc đẩy ngành công nghiệp "gia công phụ huynh" trị giá hàng tỷ đô la và đã bắt đầu quảng cáo thông qua các khoản tài trợ có trả tiền của các bậc cha mẹ và blog "xác ướp". Hoạt động tiếp thị của công ty tập trung chủ yếu vào khả năng tiết lộ những bí mật ẩn giấu và ngăn chặn "cơn ác mộng của mọi phụ huynh", trích dẫn các vụ án hình sự bao gồm một người giữ trẻ ở Kentucky bị buộc tội hồi đầu năm nay với một bé gái 8 tháng tuổi bị thương nặng.
"Có phải cha mẹ của cô bé bị thương bởi người giữ trẻ này đã có thể sử dụng Predictim như một phần của quy trình kiểm tra sức khỏe của họ", một tài liệu tiếp thị của công ty nói, "họ sẽ không bao giờ để cô ấy ở một mình với đứa con quý giá của họ."
Tuy nhiên, các chuyên gia công nghệ cho biết hệ thống này tự giương cờ đỏ, bao gồm cả những lo ngại rằng họ đang lo sợ về việc bán các bản quét cá tính có độ chính xác chưa được kiểm chứng.
Họ cũng đặt câu hỏi về cách các hệ thống đang được đào tạo và mức độ dễ bị tổn thương của chúng để hiểu sai ý nghĩa mờ nhạt của việc sử dụng phương tiện truyền thông xã hội của người trông nom. Đối với tất cả trừ các lần quét có rủi ro cao nhất, phụ huynh chỉ được đưa ra một gợi ý về hành vi đáng ngờ và không có cụm từ, liên kết hoặc chi tiết cụ thể để tự đánh giá.
Khi quét của một người giữ trẻ bị gắn cờ vì hành vi bắt nạt có thể xảy ra, người mẹ không được yêu cầu nói rằng cô ấy không thể biết liệu phần mềm có phát hiện ra một trích dẫn phim cũ, lời bài hát hay cụm từ khác trái ngược với ngôn ngữ bắt nạt thực tế hay không.
Nhưng tuy nhiên, Predictim cho biết họ đang chuẩn bị cho việc mở rộng trên toàn quốc. Các giám đốc điều hành tại Sittercity, một thị trường bảo mẫu trực tuyến được hàng triệu phụ huynh ghé thăm, cho biết họ sẽ triển khai một chương trình thí điểm vào đầu năm tới, sẽ xếp hạng xếp hạng tự động của Predictim vào mảng sàng lọc và kiểm tra lý lịch hiện tại của trang web.
Sandra Dainora, người đứng đầu sản phẩm của Sittercity, người tin rằng các công cụ như thế này có thể sớm trở thành "tiền tệ tiêu chuẩn" để tìm người chăm sóc trực tuyến. "Cha mẹ luôn tìm kiếm giải pháp tốt nhất, nghiên cứu nhiều nhất, sự thật tốt nhất".
Các bài viết washington