Notions Engagement für KI-Sicherheit

Erfahre mehr über Notions Ansatz zur KI-Sicherheit 🛡️
Notion entwickelt die Notion-KI auf verantwortungsvolle und sichere Weise mit dem Ziel, wunderschöne Tools für deine Arbeit zu entwickeln. Notion überprüft kontinuierlich seine KI-Sicherheitspraktiken, während sich die Branche weiterentwickelt, um sicherzustellen, dass wir unser Bestes tun, um die Notion-Workspaces unserer Kund/-innen und die damit verbundenen Kundendaten zu schützen.
Die Notion-KI gehört zu deinem Workspace und hilft dir dabei, Inhalte zu durchsuchen, zu chatten und zu schreiben, damit du deine beste Arbeit schneller erledigen kannst. In diesem Artikel findest du weitere Informationen.
Transparenz
Notion setzt sich für Transparenz ein und hält die Nutzer/-innen darüber auf dem Laufenden, wie die Notion-KI entwickelt, bereitgestellt und verwendet wird. Wir informieren unsere Kund/-innen regelmäßig darüber, welche KI-Modelle verwendet werden (z. B. die von OpenAI und Anthropic) und bemühen uns, zugängliche Informationen über Notion und unsere Unterauftragsverarbeiter zur Verfügung zu stellen, die zur Bereitstellung von Notion-KI-Funktionen beitragen.
Modellentwicklung und -nutzung
Notion nutzt Modelle, die von seinen Unterauftragsverarbeitern, Organisationen wie OpenAI und Anthropic, entwickelt wurden, um unseren Kund/-innen Notion-KI zur Verfügung zu stellen.
Unsere Modelle und KI-Tools sind nicht darauf ausgelegt, automatisierte Entscheidungen über Einzelpersonen zu treffen. Sie sind darauf ausgelegt, unsere Kund/-innen dabei zu unterstützen, ihre Arbeit schneller zu erledigen.
Datenschutz und Sicherheit der Nutzer/-innen
Standardmäßig verwenden wir deine Workspace-Daten oder personenbezogenen Daten nicht, um unsere Modelle zu trainieren.
Für interessierte Kund/-innen bietet Notion das KI-LEAP-Programm an, das die Freigabe von Workspace-Daten ermöglicht, um die zugrunde liegenden Modelle im Austausch für den bevorzugten Zugang zu zukünftige KI-Entwicklungen und -Funktionen zu verbessern.
Alle Informationen, die zur Unterstützung der Notion-KI verwendet werden, werden mit untergeordneten KI-Auftragsverarbeitern geteilt, die ausschließlich dazu dienen, dir die Funktionen der Notion-KI zur Verfügung zu stellen. Wir verlangen von allen Auftragsverarbeitern, dass sie vertraglichen Verpflichtungen zustimmen, die jegliche Verwendung von Kundendaten zum Trainieren ihrer Modelle verbieten. Erfahre hier mehr über die Sicherheits- und Datenschutzpraktiken von Notion-KI →
Wir setzen Sicherheitskontrollen für Endnutzer/-innen ein, um sicherzustellen, dass die Interaktionen mit Modellen und Modellausgaben sicher sind, wie z. B. den Moderationsendpunkt von OpenAI.
Wir arbeiten mit Organisationen wie ROOST (Robust Open Online Safety Tools) zusammen, um Open-Source-KI-Trust-Tools zu nutzen und zu unterstützen, um unsere Plattform für unsere Kund/-innen sicherer zu machen.
Interne Tests und Kontrollen
Wir unterziehen unsere Modelle strengen internen Tests, bevor wir sie für unsere Kund/-innen bereitstellen, um die Genauigkeit und Zuverlässigkeit für unsere Nutzer/-innen zu fördern.
Notion betreibt ein umfassendes Sicherheits- und Datenschutzprogramm, einschließlich zahlreicher Zertifizierungen zum Schutz der Verarbeitung deiner Daten (z. B. SOC 2 Type 2, ISO).
Wir führen gründliche Überprüfungen von Anbietern wie OpenAI durch, die Kundendaten verarbeiten, um sicherzustellen, dass sie unsere Standards und die Erwartungen unserer Kund/-innen an den Umgang mit ihren Daten erfüllen.
Kontinuierliche Verbesserung
Notion aktualisiert und implementiert ständig neue Modelle, um unseren Kund/-innen bessere Dienstleistungen bieten zu können. Dazu überprüfen wir die Modell- und Produkteffektivität und verbessern sie durch Iteration.
Notion bewertet und wählt regelmäßig Modelle von Drittanbietern aus, je nachdem, wie gut sie den Bedürfnissen der Nutzer/-innen entsprechen, und überprüft kontinuierlich die Leistung bestehender und neuer Modelle, damit Nutzer/-innen niemals an leistungsschwache Technologien gebunden sind.