Leider unterstützen wir Ihren Browser nicht vollständig. Wenn Sie die Möglichkeit dazu haben, nehmen Sie bitte ein Upgrade auf eine neuere Version vor oder verwenden Sie Mozilla Firefox, Microsoft Edge, Google Chrome oder Safari 14 bzw. eine neuere Version. Wenn Sie nicht dazu in der Lage sind und Unterstützung benötigen, senden Sie uns bitte Ihr Feedback.
Sicherheit & Compliance — unser Versprechen an Sie
Vertrauen schaffen durch Schutz und Transparenz.
Unser Ansatz zum Schutz Ihrer Informationen
Bei Elsevier wissen wir, dass Vertrauen verdient werden muss. Wir setzen uns dafür ein, Ihre Daten zu schützen, Ihre Privatsphäre zu respektieren und höchste Standards in den Bereichen Sicherheit und Compliance einzuhalten.
Erfahren Sie, wie unsere Richtlinien und Verfahren verantwortungsvolle Innovation unterstützen und Ihre Informationen schützen.
Compliance und Zertifizierungen: Erfüllung anerkannter Industriestandards
Wir erfüllen führende Sicherheitsstandards und verfügen über Zertifizierungen wie ISO 27001.
Regelmäßige Audits und unabhängige Bewertungen
Sichere Infrastruktur für alle Nutzer
Kontinuierliches Bekenntnis zu Best Practices
Schutz Ihrer Privatsphäre in jedem Schritt
Wir verpflichten uns, Ihre personenbezogenen Daten durch starke Datenschutzgrundsätze und transparente Verfahren zu schützen.
Sicherstellung eines verantwortungsvollen KI-Einsatzes und des Datenschutzes in den Tools von Elsevier.
Elsevier ist seit langem eine vertrauenswürdige Quelle für kuratierte, peer-reviewte wissenschaftliche Inhalte mit fachspezifischer Expertise.
Erfahren Sie mehr darüber, wie wir Responsible AI einsetzen und die Privatsphäre von Nutzerdaten schützen, einschließlich unserer Five Responsible AI Principles für einen verantwortungsvollen, ethischen und angemessenen Einsatz
Für jeden Anwendungsfall und jede Lösung wählen wir aus einer sorgfältig ausgewählten Gruppe führender Anbieter – darunter OpenAI, Anthropic und andere – das am besten geeignete Large Language Model aus, das sicher auf Cloud-Services von Microsoft Azure oder AWS gehostet wird. So stellen wir Leistung und Sicherheit gleichermaßen sicher.
Bei Elsevier wissen wir, dass der angemessene Umgang mit personenbezogenen Daten für unsere Kunden und die Communities, die wir unterstützen, von großer Bedeutung ist. Daher verpflichten wir uns zu einem integren und verantwortungsvollen Handeln beim Datenschutz.
Alle Nutzereingaben und Daten werden im Einklang mit unserer Datenschutzrichtlinie und unseren Responsible-AI-Prinzipien verarbeitet
Wir verarbeiten personenbezogene Daten im Einklang mit geltenden Datenschutzgesetzen wie der Datenschutz-Grundverordnung (DSGVO) und dem California Consumer Privacy Act (CCPA). Darüber hinaus ergreifen wir weitere Maßnahmen, um die Datenschutzanforderungen unserer Nutzer und der wissenschaftlichen Gemeinschaft zu erfüllen.
Nein. Unsere Enterprise-Vereinbarungen mit AWS, Microsoft Azure, OpenAI und Anthropic beinhalten Zero-Retention-Verträge, sodass Ihre Prompts und Dokumente niemals für die Entwicklung von Large Language Models verwendet werden. Elsevier nutzt zu diesem Zweck auch keine Kundendaten in unseren privaten Cloud-Umgebungen.
Unser Einsatz von LLMs externer Anbieter erfolgt vertraulich; es werden keine Daten zur Verbesserung öffentlicher Modelle weitergegeben. Wir prüfen keine Such-Prompts einzelner Personen oder Organisationen, sondern nur aggregierte, anonymisierte Muster, um die Systemleistung und Relevanz zu verbessern.
Mit den KI-Lösungen von Elsevier profitiert Ihr Unternehmen von einem verbesserten Datenschutz und Sicherheitsvorkehrungen auf Enterprise-Niveau.
Die Eingabe eines Nutzers — Prompt, Anfrage oder Dokument — wird mit TLS 1.2 oder höher sicher an die vertrauenswürdige Elsevier-Umgebung gesendet. Der Prompt wird auf seine Intention analysiert und von einem Embeddings-Modell in separate Prompts aufgeteilt, um Informationen aus unserem Content Store abzurufen.
Der Prompt wird zusammen mit der Inhaltsantwort anschließend mit TLS 1.2 oder höher innerhalb der vertrauenswürdigen Elsevier-Umgebung an unsere Anbieter von Basismodellen gesendet.
Anschließend wird dem Nutzer in der Elsevier KI-Lösung eine fundierte, generierte Antwort angezeigt.
Nutzer-Prompts und Antworten in ihrem Konversationsverlauf werden in verschlüsselten Datenbanken mit AES-256-Verschlüsselung gesichert.
Unsere Architektur und die damit verbundenen Verträge schließen aus, dass externe Modellanbieter Nutzer-Prompts protokollieren oder Modelle darauf trainieren.
Elsevier kontrolliert strikt, welche Inhalte mit Anbietern geteilt, von ihnen gespeichert oder für Trainingszwecke verwendet werden. Weder Microsoft (Azure) noch AWS (Bedrock) speichern Elsevier-Inhalte oder Kunden-Prompts für Training oder Speicherung.
Nutzer-Prompts bleiben privat; Elsevier verwendet nur aggregierte, anonymisierte Erkenntnisse, um den Service zu verbessern.
Datensicherheit und Verschlüsselung: Ihre Daten werden innerhalb der vertrauenswürdigen Elsevier-Umgebung sicher gespeichert und im Ruhezustand mit AES-256 verschlüsselt. Ihre Daten werden bei der Übertragung mit TLS 1.2 oder höher verschlüsselt. Weitere Informationen finden Sie in unserer Richtlinie zu
Elsevier hat Zero-Retention-Verträge mit unseren Basismodell-Anbietern abgeschlossen. Dadurch wird sichergestellt, dass Ihre Prompts und Dokumente niemals gespeichert oder zum Training von Large Language Models (LLMs) verwendet werden. Durch die Nutzung der KI-Lösungen von Elsevier profitiert Ihre Organisation von unserem erweiterten Datenschutz und Sicherheitsvorkehrungen auf Enterprise-Niveau.
Alle KI-Services von Elsevier, einschließlich unserer Produktumgebungen, werden in führenden Cloud-Rechenzentren von Amazon Web Services (AWS) oder Microsoft Azure gehostet. Je nach Anwendung und regulatorischen Anforderungen können Services in Europa oder den USA gehostet werden.
Wir schützen Ihre Daten, wohin sie auch gehen. Im Ruhezustand werden sie mit AES-256, dem Advanced Encryption Standard, verschlüsselt. Bei der Übertragung verwenden wir TLS 1.2 oder höher, das Daten nicht nur verschlüsselt, sondern auch den Server authentifiziert und die Datenintegrität überprüft.
Wir setzen branchenübliche Best Practices ein, darunter Web Application Firewalls, Schwachstellenscans für Anwendungen und Infrastruktur, sichere Code-Reviews, Bug-Bounty-Programme sowie weitere präventive, aufdeckende und reaktive Kontrollen, um unsere Systeme und Ihre Daten vor Angreifern zu schützen.
Unsere Architektur und die damit verbundenen Verträge schließen aus, dass externe Modellanbieter Protokolle über Nutzerkonversationen erstellen oder Modelle darauf trainieren.
Alle grenzüberschreitenden Übermittlungen personenbezogener Daten unterliegen geeigneten, DSGVO-konformen Schutzmaßnahmen, einschließlich der EU-Standardvertragsklauseln. Personenbezogene Kundendaten werden nicht nach China übertragen.
Elsevier fördert Nachhaltigkeit durch seine Produkte, die Unterstützung von Forschung und Programme zur sozialen Verantwortung. Wir ergreifen konkrete Maßnahmen, um die Umweltauswirkungen unserer KI-Tools zu verringern, darunter:
Einsatz eines Multi-Model-Ansatzes, der es uns ermöglicht, für weniger intensive Aufgaben kleinere, energieeffizientere Modelle zu nutzen und so den Gesamtenergieverbrauch zu senken
Nutzung von Rechenzentren von Microsoft Azure und AWS, die mit grünem Strom betrieben werden
Aufrechterhaltung eines robusten Data-Governance-Programms, um unnötige Datenspeicherung und -verarbeitung zu minimieren und so die Energieeffizienz zu unterstützen
Als Teil von RELX priorisiert Elsevier ökologische Verantwortung, indem wir unseren CO2-Fußabdruck reduzieren und nachhaltige Praktiken vorantreiben. Wir orientieren uns an den Zielen der Vereinten Nationen für nachhaltige Entwicklung, insbesondere an Klimaschutz und verantwortungsvollem Konsum, und setzen uns für eine nachhaltige Zukunft ein. Erfahren Sie mehr über unsere Umweltinitiativen bei RELX.
Der verantwortungsvolle Einsatz von KI bei Elsevier wird von unseren Responsible AI Principles geleitet, die über den gesamten Entwicklungszyklus unserer Lösungen hinweg integriert sind. Erfahren Sie mehr über die Elsevier Responsible AI Principles.