【Facebook・Instagram】責任ある生成AIの構築に向けて

Metaは10月10日、「Llama 2の責任ある使用のためのガイド」の日本語版を公開したと発表。

Metaは、10年以上にわたりAIのパイオニアであり続け、1,000 を超えるAIモデル、ライブラリ、データセットを研究者向けにリリースしてきた。その中には、マイクロソフト社との協力によって実現した、最新バージョンの大規模言語モデル「Llama 2」も含まれている。

生成AIの限界を理解してもらうための注意書きや、危険な回答の検知と除外に役立つ完全性区分などはその一例。こうした対策は、Llama 2の責任ある使用のためのガイドに概説されている業界のベストプラクティスに従って行われている。

潜在的な脆弱性の検出、リスクの低減、安全性と信頼性の向上のために実施している手順について

※以下例

  • レッドチーム演習を通じて内外の専門家とともに会話型AIを評価し、改善:専任の専門家チームが数千時間をかけてこれらのモデルにストレステストを実施し、想定外の方法で使用されることがないかを確認して脆弱性の検出と修正に取り組んでいる。
  • モデルをファインチューニング:これには、有用な回答を提供する確率を高める指示を使用し、高画質の画像の生成など、特定のタスクを実行するモデルのトレーニングが含まれる。また、安全性の課題に対しては、専門家の裏付けに基づいたリソースを提供するようにモデルをトレーニングしている。たとえば、特定の質問に対しては、AIは地元の自殺予防や摂食障害対策の支援団体を紹介し、医療的なアドバイスは提供できないことを明示。
  • 安全と責任のガイドラインに沿ってモデルをトレーニング:モデルにガイドラインを学習させることにより、どの年齢の人がアプリを使用していても、有害または不適切となり得る回答が提供される可能性が少なくなる。
  • 偏見を減らす対策を講じている:生成AIシステム内の潜在的な偏見への対応は、新たな研究分野の1つとなっている。他のAIモデルと同様、より多くの人に機能を使用してもらいフィードバックを得ることが、私たちのアプローチを改善する助けとなる。
  • ポリシーに反するコンテンツを検出して措置を講じる新しい技術を開発した:私たちのチームは、有害な回答がユーザーに提供される前にそれらをスキャンし、除外するアルゴリズムを構築。
  • 機能内にフィードバックツールを組み込んでいる:完璧なAIモデルはない。頂いたフィードバックに基づき、安全性能とポリシー違反の自動検知の向上のためにモデルをトレーニングし続ける。また、長年実施されているMetaのバグ報奨金プログラムを通じて、新しい生成AI機能をセキュリティ研究者に公開。

公式サイトはこちら