英国が関連リスクの識別と評価のためのAIモデル安全検査ツールを先行リリース
SOHU
发表于 2024-5-13 11:25:19
305
0
0
(牛占林編集)英国人工知能(AI)安全研究所は今週金曜日、先進的なAIモデルの安全リスクの監視を強化するための新しいテストプラットフォームを発表した。
紹介によると、このツールボックスの名前はInspectで、一連の分野のAIモデルを評価することができて、それらの核心知識、推理能力、自主能力を含む。オープンソースライセンスの発行により、Inspectは世界中のAIコミュニティで無料で使用できることを意味します。
英国は昨年10月、人工知能安全研究所を設立し、新型AIモデルを研究し、テストすると発表した。今年2月には、英国が1億ポンド以上を投資して9つの新しい研究センターを立ち上げ、AI規制機関に技術訓練を行うことも明らかにした。
記者会見で、英国人工知能安全研究所は、Inspectはソフトウェアライブラリであり、テスターが単一のAIモデルの具体的な能力を評価し、結果に基づいて点数を与えることができるようにしていると述べた。
Inspectは金曜日から使用できるようになり、これは国が支援する機関が先に発表したAIセキュリティテストプラットフォームでもある。
現在のAI競争ブームの下で、ますます多くのAIモデルが今年発売され、これによりAIの安全な発展を推進することがこれまで以上に切迫している。
しかし、現在最も複雑なAIモデルは基本的に「ブラックボックス」であり、そのインフラストラクチャ、トレーニングデータ、その他の重要な詳細は通常それらを作成する会社によって秘密にされ、公開されていないため、AIモデルのベンチマークテストを行うのは難しい。
では、Inspectはこの挑戦にどのように対応しているのでしょうか。主にその拡張性により、新しいテスト技術に適応して接収することができる。Inspect組み込みコンポーネントは、Pythonで作成されたサードパーティ製パッケージを使用して拡張または拡張できます。
Inspectは、データセット、ソルバ、スコアリングの3つの基本セクションで構成されています。データセットはテストのサンプル集合を評価するために使用され、ソルバは実際のテスト作業を実行するコンポーネントであり、採点器の役割はソルバの作業成果を評価し、最終的にAIモデルの性能に関する総合評価を生成し、この設計によりInspectは異なるテスト需要と評価基準に柔軟に適応することができる。
ミシェル・ドネラン英科学相は、AIセキュリティ分野における英国の持続的なリーダーシップの一環として、革新と科学技術の発展における英国の独自の才能と創造力を示し、同分野の世界的リーダーとしての地位を固めたオープンソースInspectを承認したと述べた。
人工知能安全研究所のIan Hogarth会長は、成功したAI安全テスト協力は共有され、アクセス可能な評価方法を持つことを意味し、InspectがAI安全研究所、研究組織、学術界の礎になることを望んでいると述べた。
Logomoney.com 情報発信プラットフォームであり、情報保存空間サービスのみを提供しています。
本文はLogomoney.comの立場を代表するものではなく、提案を構成するものではありません、慎重に対応してください。
本文はLogomoney.comの立場を代表するものではなく、提案を構成するものではありません、慎重に対応してください。
あなたが好きだと思う
- OpenAIオンライン満血版o 1大モデルおよび月額200ドルのChatGPT Pro
- OpenAIにまたキング爆弾が!AIビデオ生成モデルSoraを正式にリリース
- 新東方は「遅ればせながら」、教育大モデル時代が来たのか。
- グーグル、最強モデルを放出OpenAIの重心をAIエージェントに狙撃
- OpenAIに挑戦、グーグルが新アクション!生成型AIを大幅に更新し、ビデオモデルVEO 2と最新版Imagen 3をリリース
- ますます真偽の見分けがつかない?グーグル、次世代ビデオ生成モデルVeo 2を発表
- 蔚来第3ブランドホタル初モデル2025年4月発売
- マイクロソフトは365 Copilot製品に非OpenAIモデルを追加することに力を入れているという
- 内外のリスクが重なりユーロ圏の経済成長は困難
- リスクが高い!グーグルCEOが警告!2025年の戦略的露出