画像はイメージです original image: Jon Anders Wiken / stock.adobe.com
AIの品質管理は人間の仕事
Human controlls AI's quality
2023.01.30
Updated by Mayumi Tanimoto on January 30, 2023, 12:00 pm JST
画像はイメージです original image: Jon Anders Wiken / stock.adobe.com
Human controlls AI's quality
2023.01.30
Updated by Mayumi Tanimoto on January 30, 2023, 12:00 pm JST
昨年からの一番の大きな話題の一つはAIの普及ですが、中でも最も注目を集めているものの一つがChatGPTですね。
既に莫大な数のユーザーが使用しているChatGPTですが、様々なテキストを非常に自然な形でアウトプットしてくれるので、表計算のアウトプットの効率化や自社のシステムに埋め込んで使っている方もいらっしゃるでしょう。
PCのプリンタやデジタルカメラ、8ミリカメラなどのテクノロジーも、性的な目的や倫理的に不適切なことに使いたいというユーザーの要求が技術を発展させたのですが、ユーザーはAIを同じ様に使用しているようです。
ChatGPTに不適切なコンテンツをアウトプットするように指示しているユーザーがかなりいることが問題になっており、提供会社のOpenAIは、ケニアのSama社という企業に 不適切なコンテンツの検証やラベル付け、削除といったことを外注していることが報道されています。
報道では、この外注会社のスタッフの手取りが時給2ドル(約260円)ということが批判されていますが、それより驚かされる点は、ChatGPTのような システムであっても、コンテンツの意味合いや細かい検証は人間の手が入らないと上手くいかないという点です。
この件は、Twitterでも 注目を浴びました。Twitterの中にいるアルゴリズム担当の人々やコンテンツ・キュレーションをやっていた人々の証言によれば、Twitterの検閲はアルゴリズムで機械的に処理されていたものも多いのですが、やはり人間に比べると完全とは言えなっかった様です。機械的に処理されるために、ポリシーに違反していないものが削除されてしまったり、凍結されるということが発生しています。
AIはどんどん発展しているのですが、 やはり行間を読んだり文章の意味合いを本当に理解するということは非常に高度な知的活動であり、 まだまだAI単独では判断が難しいところがありますね。
これはどういうことかというと、人間の感情に訴えかけるような表現や活動は、機械化することがまだ難しいということです。一方で、単純作業や定型化できるものは、どんどんAIによって効率化されていく可能性が高いので、労働としての付加価値は低くなります。
さらに、ユニークな芸術表現や一対一のカウンセリングなどは、AIにはまだ無理なので、今後はそういったことができる人の価値がより高まっていく可能性があるということになります。
今後、どんな仕事の価値がより高まっていくか、ということを考えるヒントになるのではないでしょうか。
おすすめ記事と編集部のお知らせをお送りします。(毎週月曜日配信)
登録はこちらNTTデータ経営研究所にてコンサルティング業務に従事後、イタリアに渡る。ローマの国連食糧農業機関(FAO)にて情報通信官として勤務後、英国にて情報通信コンサルティングに従事。現在ロンドン在住。