ペアレンタルガイダンス:ソーシャルメディアの歴史に基づいてベビーシッターを評価するために使用される「人工知能」
Jessie Battagliaが1歳の息子のために新しいベビーシッターを探し始めたとき、彼女は犯罪歴のチェック、両親のコメント、および対面式のインタビューから得られるよりも多くの情報を求めていました。
そこで彼女は、ベビーシッターの性格を評価するために「高度な人工知能」を使用するオンラインサービスであるPredictimに目を向け、スキャナーを1人の候補者の何千ものFacebook、Twitter、Instagramの投稿に向けました。
このシステムは、24歳の候補者の自動化された「リスク評価」を提示し、彼女は麻薬乱用者であるという「非常に低いリスク」にあると言っています。 しかし、いじめ、嫌がらせ、「失礼」および「悪い態度」については、わずかに高いリスク評価(5つに2つ)が行われました。
システムはなぜそれがその決定をしたか説明しなかった。 しかし、シッターが信頼できると信じていたBattagliaは、突然疑念を感じました。
「ソーシャルメディアは人の性格を示している」とロサンゼルス近郊に住む29歳のBattagliaは述べた。 「それで、なぜ彼女は1ではなく2で来たのですか?」
Predictimは、世界中の雇用主に販売している他の多くのハイテク企業と同じプレイブックを提供しています。個人の生活の隠された側面を明らかにすることを約束して、個人のスピーチ、表情、オンライン履歴を分析する人工知能システムです。
この技術は、一部の企業がどのようにして労働者の採用、採用、見直しに取り組むかを改造しており、侵略的な心理学的評価とサーベイランスの新しい波を通して雇用主に比類のない求職者の見方を提供します。
ハイテク企業のFamaは、「有毒な行動」について労働者のソーシャルメディアを警戒し、上司に警告するためにAIを使用していると語った。 また、Geico、Hilton、Unileverなどの企業と提携しているリクルートテクノロジー会社のHireVueは、ビデオインタビュー中に応募者の声調、言葉の選択、顔の動きを自動的に分析して、仕事のスキルと態度を予測するシステムを提供します。 (候補者は最高の結果を得るために笑顔をするよう奨励されています。)
しかし批評家たちは、Predictimやそれに類するシステムは、自動化され、場合によっては変更される可能性のある決定を事実上チェックしないことによって、彼ら自身の危険を提示すると言います。
システムはブラックボックスのアルゴリズムに依存しており、ブラックボックスのアルゴリズムが人の内なる生活の複雑さをいかにして美徳や害の計算に減らしたかについてはほとんど詳しく説明していません。 Predictimの技術が両親の思考に影響を与えるとしても、それは完全に証明されておらず、主に説明できず、適切なベビーシッターが共有し、見て、話すべきであるという静寂のバイアスに対して脆弱です。
技術擁護団体であるデジタル民主主義センターのエグゼクティブディレクター、ジェフチェスター氏は、次のように述べています。 「それは人々がデジタルKool-Aidを飲んだようなものであり、これは私たちの生活を統治するのに適切な方法だと思います。」
Predictimのスキャンは、ベビーシッターのソーシャルメディアの全履歴を分析します。これは、最も若いシッターの多くにとって、彼らの生活のほとんどをカバーすることができます。 そして彼らが拒否すれば、彼らは競争の激しい仕事にとって大きな不利益を被ることになると言われています。
Predictimのチーフ兼共同設立者であるSal Parsaは、カリフォルニア大学バークレー校のSkyDeck技術インキュベーターの一環として先月立ち上げられた同社は、その技術の使用について倫理的な質問を真剣に受け止めていると述べた。 両親は、評価は「シッターの実際の属性を反映するかもしれないし反映しないかもしれない」という仲間と見なすべきだと彼は言った。
しかし、問題のある、または暴力的なベビーシッターを雇うことの危険性は、彼または彼の子供を安全に保とうと望んでいるどんな親にとってもAIを必要な道具にする、と彼は付け加えました。
「Googleで虐待的なベビーシッターを検索すると、今すぐに何百もの結果が表示されるでしょう」と彼は言った。 「精神病を患っている人、あるいは悪魔として生まれたばかりの人がいます。私たちの目標は、彼らを阻止するためにできる限りのことをすることです。」
Predictimスキャンは24.99ドルから始まり、ベビーシッターの名前と電子メールアドレス、およびソーシャルメディアアカウントへの幅広いアクセスを共有するための彼女の同意が必要です。 ベビーシッターは辞退することができますが、親は拒否を通知され、電子メールでベビーシッターは「あなたがこの要求を完了するまであなたを雇うことができないでしょう」と言われます。
Predictimの幹部らは、言語処理アルゴリズムと「コンピュータビジョン」として知られる画像認識ソフトウェアを使用して、ベビーシッターのFacebook、Twitter、およびInstagramの投稿でオフライン生活に関する手がかりを調べていると述べています。 保護者はレポートのみを提供され、シッターに結果を知らせる必要はありません。
両親は、おそらく彼らの居場所のパブリックソーシャルメディアアカウントを自分で見ることができたでしょう。 しかし、コンピューターで作成されたレポートは、1桁にまで絞られた、何年ものオンライン活動の徹底的な調査を約束します。
リスク評価は、明示的な内容や薬物の乱用など、いくつかのカテゴリに分類されます。 スタートアップはまた、そのシステムが丁寧さ、他人と働く能力、そして「陽性」などの他の性格特性についてベビーシッターを評価できると宣伝しています。
同社は数十億ドル規模の「ペアレンタル・アウトソーシング」業界を利用したいと考えており、有料の子育てスポンサーシップや「ミイラ」ブログを通じて広告を出し始めている。 同社のマーケティングは、隠された秘密を明らかにし、「すべての親の悪夢」を防止する能力に重点を置いており、今年初めにケンタッキーのベビーシッターが8ヶ月の少女を重傷を負わせた訴訟を含む。
「このベビーシッターで怪我をした少女の両親が、獣医師の検査プロセスの一環としてPredictimを使用できたとしたら、彼らは自分の貴重な子供を一人にしたことは一度もなかったでしょう」。
しかし技術系の専門家は、このシステムは未確認の正確さのパーソナリティスキャンを売ることに対する両親の恐れを食い物にしているという心配を含めて、システムがそれ自身の赤い旗を掲げると言います。
彼らはまた、システムがどのように訓練されているのか、そしてシッターのソーシャルメディアの使用の意味がぼやけていることを誤解することに対してどれほど脆弱である可能性があるのかについても疑問を投げかけている。 最もリスクの高いスキャン以外のすべてについて、両親は疑わしい行動の提案のみを与えられ、自分で評価するための特定のフレーズ、リンク、または詳細は与えられません。
1人のベビーシッターのスキャンにいじめの可能性があるとフラグが立てられたとき、それを要求した未確認の母親は、ソフトウェアが実際のいじめの言葉とは対照的に古い映画の引用、歌の歌詞、その他のフレーズを見つけたかどうかわからないと言いました。
しかしそれにもかかわらず、Predictimはそれが全国的な拡大の準備をしていると言います。 何百万もの親が訪れるオンラインベビーシッター市場Sittercityの幹部は、来年初めにはPredictimの自動格付けをサイトの現在のシッタースクリーニングや背景チェックに組み込むパイロットプログラムを開始すると述べた。
Sittercityの製品責任者であるSandra Dainora氏は、次のように述べています。「これらのツールは、間もなくオンラインで介護者を見つけるための「標準通貨」になると考えています。 「両親は常に最善の解決策、最善の研究、最善の事実を求めています。」
ワシントンポスト