AI 안전성에 대한 Notion의 약속

AI 안전성에 대한 Notion의 방침에 대해 알아보세요 🛡️
Notion은 여러분의 일생일대의 성취를 위한 아름다운 도구를 만들기 위해 책임감 있고 안전한 방식으로 Notion AI를 개발합니다. Notion은 고객의 Notion 워크스페이스와 관련 고객 데이터를 보호하기 위해 최선을 다하고 있는지 확인하기 위해 업계가 발전함에 따라 AI 안전 관행을 지속적으로 평가합니다.
Notion AI는 워크스페이스에 상주하며 검색, 채팅, 글쓰기를 지원해 업무 속도를 높이면서도 더 좋은 결과를 낼 수 있도록 도와줍니다. 자세한 내용은 이 문서를 참고하세요.
투명성
Notion은 투명성을 위해 최선을 다하고 있으며, 사용자에게 Notion AI가 어떻게 개발, 배포 및 사용되는지를 지속적으로 알리고 있습니다. 당사는 사용 중인 AI 모델(예: OpenAI 및 Anthropic)에 대해 고객에게 정기적으로 업데이트하고, Notion AI 기능을 제공하는 데 도움이 되는 Notion 및 데이터 처리 위탁업체에 대한 접근 가능한 공개 정보를 제공하기 위해 노력합니다.
모델 개발 및 사용
Notion은 데이터 처리 위탁업체 및 OpenAI 및 Anthropic과 같은 조직에서 개발한 모델을 활용하여 고객에게 Notion AI를 제공합니다.
당사의 모델과 AI 도구는 개인에 대한 자동화된 의사 결정을 내리기 위해서가 아닌, 고객이 업무를 더 빨리 수행할 수 있도록 지원하기 위해 설계되었습니다.
최종 사용자 개인정보 보호 및 안전
기본적으로 당사는 워크스페이스 정보 또는 개인 정보를 모델 학습에 사용하지 않습니다.
관심이 있는 고객을 위해 Notion은 AI LEAP 프로그램을 제공합니다. 이 프로그램을 통해 워크스페이스 데이터를 공유하여 기본 모델을 개선할 수 있고, 향후 AI 개선 및 기능에 대한 최전선 사용 권한을 얻을 수 있습니다.
Notion AI를 구동하는 데 사용되는 모든 정보는 Notion AI 기능을 제공하기 위한 목적으로만 AI 하위 프로세서와 페이지가 공유됩니다. Notion은 모든 데이터 처리 수탁업체에게 모델 학습을 위해 고객 데이터를 사용하는 것을 금지하는 계약 의무를 준수하도록 요구합니다. Notion AI의 보안과 개인정보 보호 관행에 대해서는 여기에서 자세히 알아보세요 →
당사는 모델 및 모델 출력과의 상호 작용이 안전한지 확인하기 위해 최종 사용자에게 OpenAI의 조정 엔드포인트와 같은 안전 제어를 배포합니다.
Notion은 ROOST (Robust Open Online Safety Tools)와 같은 조직과 협력하여 오픈 소스 AI 신뢰 도구를 활용하고 지원하여 고객에게 더 안전한 플랫폼을 제공합니다.
내부 테스트 및 제어
당사는 정확성과 신뢰성을 높이기 위해 고객에게 배포하기 전 모델에 대한 엄격한 내부 테스트를 거칩니다.
Notion은 데이터 처리를 보호하기 위한 다양한 인증(예: SOC 2 Type 2, ISO)을 포함한 포괄적인 보안 및 개인정보 보호 프로그램을 운영합니다.
Notion은 고객 데이터를 처리하는 OpenAI와 같은 공급업체에 대한 철저한 검토를 통해 고객 데이터 처리 방식에 대한 당사의 기준과 고객의 기대를 충족하는지 확인합니다.
지속적인 개선
Notion은 모델과 제품의 효과를 검토하고 개선하기 위해 지속적으로 새로운 모델을 업데이트하고 배포하여 고객에게 더 나은 서비스를 제공합니다.
Notion은 사용자 요구를 얼마나 잘 충족하는지에 따라 제3자 모델을 정기적으로 평가하고 선택하며, 사용자가 저조한 기술에 갇히지 않도록 기존 및 새로운 모델 성능을 지속적으로 검토합니다.