オープンデータ関連のニュースです。
日本語
おそらく FaceApp を見た、人々 は、ウイルスの写真フィルター アプリ見て古いや若いまたは別の性別のような。また、それは実際には誰もが白い肌を明るく、目を丸め、縮小、鼻とちょうど一般に人種差別的な美の基準を適用した写真を「ホット」するオプションを提供しました。マザーボードは、何が起こったかその作成者を尋ねたところ、無線ラボ CEO ヤロスラフ ゴンチャロフは FaceApp アルゴリズムをトレーニングに使用するデータを非難しました。「それトレーニング セット バイアスによって引き起こされる根本的なニューラル ネットワークの不幸な副作用」彼は言った、「ものではありません動作。」無線ラボ機能「スパーク」を名前し、コードを修正しています。 待つ.
続きを読む…
English
You’ve probably seen FaceApp, the viral photo filter app that makes people look old or young or like another gender. It also offered an option to make the photo “hot,” which in practice just made everyone look white by lightening skin, rounding eyes, and shrinking noses, and just generally enforcing racist beauty standards. When Motherboard asked its creator what happened, Wireless Lab CEO Yaroslav Goncharov blamed the data used to train the FaceApp algorithm. “It is an unfortunate side-effect of the underlying neural network caused by the training set bias,” he said, “not intended behavior.” Wireless Lab renamed the feature “spark” and said it is fixing the code. Wait.
Read more…