Zscaler Blog
Erhalten Sie die neuesten Zscaler Blog-Updates in Ihrem Posteingang
Abonnieren
Zscaler Data Protection Tour: Tipps zum Erkennen und Verhindern von Datenpannen
In dieser Blogreihe werden verschiedene Herausforderungen thematisiert, mit denen Unternehmen bei der Datensicherheit konfrontiert sind. Insbesondere geht es um konkrete Anwendungsszenarien, die berücksichtigt werden müssen, damit der zuverlässige Schutz vertraulicher Daten gewährleistet ist. Zudem werden die Technologien vorgestellt, mit denen Zscaler Unternehmen bei der Bewältigung dieser Anwendungsfälle unterstützt, u. a. der Cloud Access Security Broker (CASB) sowie die Data Loss Prevention (DLP).
In jeder Folge dieser Reihe führt ein Kurzvideo in die jeweils relevanten Funktionen der Benutzeroberfläche der Zscaler-Lösung ein und veranschaulicht ihre Rolle im Rahmen eines ganzheitlichen unternehmensfähigen Sicherheitskonzepts.
In früheren Beiträgen ging es um Shadow-IT, riskante Dateifreigabe, SaaS-Fehlkonfigurationen und externe SaaS-Mandanten. Das heutige Thema lautet:
Datenverluste in der Cloud
Die Cloud birgt einerseits riesiges Potenzial zur Steigerung der Produktivität und Verbesserung der Zusammenarbeit, andererseits aber auch neue Risiken versehentlicher oder böswillig verursachter Datenverluste. SSL-Verschlüsselung kann dazu führen, dass Datenverluste im Cloud-Traffic zunächst unbemerkt bleiben, zumal Legacy-Appliances nicht über die Kapazitäten zur Untersuchung des gesamten verschlüsselten Traffics bei hohem Datenvolumen verfügen. Erschwerend hinzu kommt, dass Cloud-Ressourcen oft als Speicher für vertrauliche Daten dienen, die bereits zu einem früheren Zeitpunkt hochgeladen wurden. Sicherheitsmechanismen, die ursprünglich zum Schutz von SaaS-Anwendungen konzipiert wurden, lassen sich nicht granular genug konfigurieren, um diese Daten zuverlässig zu erkennen und zu schützen. Die Verwaltung unzusammenhängender Einzelprodukte oder Sicherheitsrichtlinien zur Bewältigung dieser Herausforderungen stellt keine Lösung, sondern lediglich zusätzlichen zeitlichen Aufwand für Administratoren dar.
Abhilfe schafft hier die DLP-Lösung von Zscaler, indem sie Administratoren ermöglicht, eine einzige Richtlinie zu konfigurieren, die konsistent in sämtlichen Kanälen zur Datenübertragung in der Cloud durchgesetzt wird. Die marktführende Cloud-Architektur von Zscaler ermöglicht eine Überprüfung des gesamten SSL-Traffics auch bei hohem Datenvolumen. Zur Klassifizierung von Daten im Ruhezustand kommen dabei API-Integrationen zum Einsatz. Vordefinierte und anpassbare DLP-Wörterbücher und -Engines erkennen sensible Daten und fällen Policy-Entscheidungen unter Berücksichtigung kontextbezogener Faktoren wie User-Gruppe, Gerät und Standort.
In der Demo ist Zscaler DLP in Aktion zu erleben.

Videos
War dieser Beitrag nützlich?
Disclaimer: This blog post has been created by Zscaler for informational purposes only and is provided "as is" without any guarantees of accuracy, completeness or reliability. Zscaler assumes no responsibility for any errors or omissions or for any actions taken based on the information provided. Any third-party websites or resources linked in this blog post are provided for convenience only, and Zscaler is not responsible for their content or practices. All content is subject to change without notice. By accessing this blog, you agree to these terms and acknowledge your sole responsibility to verify and use the information as appropriate for your needs.
Erhalten Sie die neuesten Zscaler Blog-Updates in Ihrem Posteingang

Mit dem Absenden des Formulars stimmen Sie unserer Datenschutzrichtlinie zu.