NotionのAIの安全性への取り組み

NotionのAIの安全性へのアプローチについて読む 🛡️
Notionは、「人生の仕事を支える、美しいツールをつくる」ことを目標に、責任ある安全な方法でNotion AIを開発しています。Notionは、業界の進化に合わせてAIの安全性に関する慣行を継続的に評価し、ユーザーのNotionワークスペースと関連するユーザーデータを保護するために最善を尽くしています。
Notion AIはワークスペース内に存在し、検索、チャット、文章作成をサポートすることで、短時間で質の高い仕事をすることができます。詳細はこちらの記事をご参照ください。
透明性
Notionは透明性を重視し、Notion AIの開発、展開、使用方法についてユーザーに情報を提供しています。当社は、使用中のAIモデル(OpenAIやAnthropicなど)について定期的にユーザーに最新情報を提供し、NotionとNotion AI機能を提供するためのサブプロセッサーについてわかりやすく開示するよう努めています。
モデルの開発と使用
Notionは、OpenAIやAnthropicなどのサブプロセッサーが開発したモデルを活用して、Notion AIをユーザーに提供しています。
当社のモデルとAIツールは、個人に対して自動化された意思決定を行うようには設計されていません。これらは、お客様がより迅速に作業を行うことをサポートするように設計されています。
エンドユーザーのプライバシーと安全
デフォルトでは、ワークスペースのデータや個人情報をモデルのトレーニングに使用することはありません。
関心のあるお客様には、NotionはAI LEAPプログラムを提供しています。このプログラムでは、基盤となるモデルの改善を目的としてワークスペースデータを共有していただく代わりに、将来提供されるAIの新機能や改善点を先行してご利用いただけます。
Notion AIを活用するために使用される情報は、Notion AI機能を提供することのみを目的として、AIサブプロセッサーと共有されます。Notionでは、すべてのサブプロセッサーに対し、ユーザーデータをモデルの学習に使用することを禁止する契約上の義務に同意するよう求めています。Notion AIのセキュリティとプライバシー対策についての詳細はこちら →
当社は、モデルとのやり取りやモデルのアウトプットが安全であることを確認するために、OpenAIのモデレーションエンドポイントなどの安全制御をエンドユーザーに展開しています。
Notionは、ROOST(Robust Open Online Safety Tools)などの組織と提携し、オープンソースのAI信頼ツールを活用およびサポートして、お客様にとってより安全なプラットフォームを提供しています。
社内テストと管理
私たちは、ユーザーの正確性と信頼性を高めるために、お客様に展開する前に社内でモデルを厳格にテストしています。
Notionは、データの処理を保護するための多数の 認証 (SOC 2 Type 2、ISOなど)を含む、包括的なセキュリティおよびプライバシープログラムを維持しています。
Notionは、ユーザーデータを処理するOpenAIなどのベンダーに対して徹底的なレビューを実施し、データの取り扱い方法がNotionの基準とユーザーの期待に応えていることを確認しています。
継続的な改善
Notionは、モデルと製品の有効性をレビューし、改善のために反復することにより、お客様に適したサービスを提供するために、常に新しいモデルを更新および展開しています。
Notionは、ユーザーのニーズへの適合度に基づいてサードパーティのモデルを定期的に評価および選択し、既存および新規のモデルのパフォーマンスを継続的にレビューすることで、ユーザーがパフォーマンスの低いテクノロジーに縛られることがないようにしています。