Donnerstag, 25. Mai 2017

Wiederherstellungsplan

Wiederherstellungsplan und routine-Wiederherstellungstests



Ziehen Sie in Betracht, in regelmäßigen Intervallen Routine Tests der Wiederherstellung durchzuführen um sicherzustellen, dass alle Einstellungen und Konfiguration en weiterhin die zuverlässige Wiederherstellung Ihres Systems gewährleisten. Im Zuge dieser Routine Tests wird auch geprüft, ob alle Backup-Einstellungen korrekt sind und die Datensicherung ohne Probleme durchgeführt wird. Wiederherstellungstests eignen sich auch, um mögliche Probleme oder Lücken Ihres Wiederherstellungsplans aufzudecken.

Um bestmöglicher Ergebnisse zu erhalten, ist es wichtig, den Test so nahe an der Realität wie möglich zu konzipieren und durchzuführen. Administratoren neigen erfahrungsgemäß manchmal dazu, derartige Tests zu planen und bestimmte Vorbereitungen durchzuführen (etwa RekonfiguVerhältnisn der Testumgebungen, Wiederherstellung bestimmter Daten im Voraus) – Solche Vorgehensweisen sind in diesem Fall ungünstig, da diese Möglichkeiten im Ernstfall nicht gegeben sind.

Es ist wichtig, dass Sie die Tests nicht vereinfachen sondern damit realistische Szenarien simulieren. Das Ziel solcher Test ist nicht die Demonstration einfacher, reibungslos verlaufender Wiederherstellungen, sondern die Identifikation bislang unbemerkter Schwachstellen Ihres Backup Konzepts – Die unbedingt aufgedeckt werden sollten bevor der Ernstfall tatsächlich eintritt.

Mittwoch, 15. Februar 2017

Bedrohungen für IT-Systeme: DoS/DDoS

DoS/DDoS

„Denial of Service„ (=DoS) bedeutet auf Deutsch so viel wie „Dienst verweigert“. DoS- und DDoS-Angriffe unter¬scheiden sich eigentlich nur in einem Punkt, dem „Distributed“ oder im deutschen auch „Verteilten“. Dies erklärt sich dadurch, dass DDoS-Angriffe in der Regel von mehreren Systemen ausgeführt werden. Diese sind meistens in einem Botnetz integriert, weswegen mehrere 1000 Systeme so viele Anfragen wie möglich an das Zielsystem schicken.

Ein DDoS Angriff wird allgemein wie folgt definiert: „Ein Angriff, dessen Ziel es ist, ein Netzwerk, eine Applikation oder einen Dienst so zu stören, dass Systeme oder User keinen Zugriff mehr darauf haben.“

Die Motivation hinter solchen Angriffen ist zumeist Rache oder der Wunsch nach Aufmerksamkeit. Der Angriff kann aber auch als Ablenkung von einem eigentlichen Angriff dienen oder finanzielle Interessen haben. Bei den finanziellen Interessen kann es sich um eine potenzielle Schutzgelderpressungen oder eine Beeinträchtigung eines Mitbewerbers handeln.

Als Ziel eines solchen Angriffes gilt unter anderem die Bandbreite eines Unternehmens, da insbesondere Internetunternehmen auf diese angewiesen sind. Dabei wird die verfügbare Leitungskapazität mit nicht legitimen Traffic überflutet. Ein weiteres Ziel ist es, die FW bzw. das Intrusion-Prevention-Systeme (=IPS) anzugreifen. Je nachdem wie diese Systeme konfiguriert sind, trennen diese bei einem erkannten Angriff oder Überlastung die Internetverbindung entweder komplett ab oder öffnen sich komplett. Eine weitere Möglichkeit ist es, durch einen gezielten Angriff die Regeln der FW nach den eigenen Wünschen anzupassen. Ebenfalls ein beliebtes Ziel ist es, ausgewählte Systeme zum Absturz zu bringen. Hierbei werden die Server oder Datenbanken der Anwendung gezielt attackiert. Es handelt es sich meistens um eine für das Unternehmen wichtige Anwendung, wie bspw. Enterprise-Resource-Planning (=ERP), Customer Relationsship Management (=CRM) oder CAD Systeme (=Computer Aided Design). Durch diese Angriffe wird das betroffene Unternehmen meistens handlungs¬unfähig. Zudem sind Webhosting Server ein sehr beliebtes Ziel, da auf diesen zumeist eine Anwendung für Kunden des Unternehmens bereitgestellt wird. Ebenfalls wird der Ausfall eines Webauftrittes in der Regel schnell vom Kunden¬kreis bemerkt und kann somit einen schlechten Ruf verursachen. Auch hier gilt, dass Internetunternehmen hierfür besonders anfällig sind, da deren Hauptein¬nahmequelle durch einen solchen Angriff nicht mehr zur Verfügung steht. Es lassen sich zwei Hauptangriffsarten unterscheiden. Hier gibt es sich zum einen die sogenannten Volumenangriffe. Diese belegen die Internetleitungen, überlasten FW, Server oder sonstige Ressourcen und sind generell sehr weit ver-breitet. Diese Angriffe stellen in der Regel möglichst viele offene Verbindungen zum Ziel¬system her, die auch bewusst aktiv gehalten werden, bis das Zielsystem keine weiteren Anfragen mehr annehmen kann. Da die offenen Verbind¬ungen nicht genutzt werden und keine neuen Verbindungen hergestellt werden können, ist das Zielsystem nicht mehr erreichbar.

Die andere Angriffsart wird Application Layer Angriff genannt. Die Bezeichnung wurde gewählt, da die Angriffe auf der Applikationsschicht des IP-Protokolls auf-bauen. Da diese das Ziel und den betroffenen Service kennen, benötigen solche Systeme wesentlich weniger Ressourcen, da sie bekannte Schwachstellen ver-wenden können. Mithilfe von intelligenten Tools lassen sich diese Angriffe jeder-zeit auf Updates des Systems anpassen um eine andere Schwachstelle zu nutzen. Durch den gezielten Angriff auf eine Applikation kann diese Angriffsart Flooderkennungsmechanismen umgehen. Aktuell sind bereits ein Viertel aller DoS und DDoS-Angriffe auf der Applikationsschicht und ihre Wachstumsrate liegt im dreistelligen Prozentbereich. Bei diesen Angriffen zeigt sich zudem die Entwicklung, dass die Angreiferidentität besser geschützt wird und der Angriff selbst von Schutzsystemen nicht so leicht erkannt werden kann.

Die Angreifer benötigen mittlerweile nicht mal mehr tiefergehende Kenntnisse im Bereich der Computertechnik, da eine Vielzahl von vereinfachten Tools frei verfügbar sind. Diese werden unter anderem als Freeware in der Kategorie „Stress Tester Utilities“ angeboten. Bei diesen Tools muss der Angreifer lediglich die Internetadresse des Ziels und die gewünschte Angriffsstärke angeben. Da DDoS Angriffe mithilfe eines Botnetzes gesteuert werden, lassen sich diese bei Bedarf mieten. Diese Botnetze werden in der Regel mithilfe von Malware errichtet. Die in der letzten Zeit publik gewordene Anonymous -Angriffe wurden mithilfe des Tools „Toujours“ durchgeführt. Dieses muss lediglich von freiwilligen Unterstützern installiert werden, die auf diese Art und Weise ihre Rechenleistung zur Verfügung stellen.

Als Schutzmaßnahmen werden in erster Linie Firewallsysteme angegeben. In deren Datenblättern ist eine Kennzahl, wie viele neue Sitzungen pro Sekunde eröffnet werden können. Allerdings ist darauf zu achten, dass bei einem DoS Angriff das minimale IP-Paket aus gerademal 84 Bytes besteht. Das bedeutet, dass alleine mit einer 10 Mbit/s–Leitung 14.881 Sitzungen pro Sekunde erstellt werden können. Demnach lautet die Empfehlung entweder auf eine Next-Generation-Firewall mit hardwarebasierten DDoS-Sensor zu setzten, oder eine soge¬nannte DDoS Appliance vor der FW einzusetzen. Für Webserver empfiehlt sich eine Web Application FW, die die Anfrage im Vorfeld analysiert.

Freitag, 18. November 2016

Elektronischer Personalausweis

Kritik am elektronischen Personalausweis 


Was ist denn nun eigentlich der Kritikpunkt an dem Elektronischen Personalausweis? Etwa nur dass ein Trojaner man mit dem Billig Lesegerät die PIN ausspähen könnte? Da würde ich ja eher sagen selber Schuld und hätte als Linuxuser keine Sorgen. Ansonsten klingt das alles doch recht komfortabel, Ummelden ohne lange Wartezeit am Amt, digitale Signatur für Mails - warum die Kassandrarufe? Und wie ist der Stand der Technik, hatte der CCC da nicht schon wieder quasi alles gehackt? Vor allem der Punkt mit der Auslesbarkeit der PIN macht mich nervös, so wie ich es verstanden habe, ist kein hash o.ä., oder ein Querverweis auf eine Onlinedatenbank wo der hash drinsteht, sondern die PIN in Klartext in E-Perso abgespeichert ist. Das ist doch schon arg fahrlässig 

Bin mir aber ziemlich sicher, dass es früher oder später umgangen wird. Das hört sich nach einer simplen Verschlüsselung an, und wie schwer kann es sein, die Daten verschlüsselt zu laden und dann später die 6-stellige Nummer zu finden? Das ist ungefähr so sicher wie das Passwort 123456. Wenns von Idioten designt wurde lauscht man auf den Stromverbrauch und kann dadurch erahnen was gerade im Mikrocontroller abgeht. Und es kommt sicherlich irgend ein Freak vorbei der seine Karte opfert, als gestohlen meldet, und dann zur Not erstmal den Die freilegt um zu wissen was da abgeht.

 Als "Sicher" würde ich es sehen wenn die Karte nach Militärspezifikationen erstellt worden wäre, so ist es aber nur nach Consumerspezifikation gebaut und somit irgendwie knackbar. Zum Glück hat meiner einer erst vor einigen Monaten einen neuen alten Personalausweis bekommen und kann so warten, bis der E-Perso- Shitstorm abgeflaut und die Technik hoffentlich besser ausgereift ist.

Donnerstag, 27. Oktober 2016

Datenintegrität

Integrität von Daten sicherstellen


Eine Prüfung der Integrität stellt sicher, dass die Daten sich nicht verändert haben. Das beinhaltet das Sicherstellen , dass niemand die Daten modifiziert hat und diese somit nicht verfälscht wurden. Gesamtheitlich betrachtet, bedeutet es das Veränderbarkeit von Informationen, Systemen und Netzen nicht unbemerkt von statten gehen kann. Idealerweise sollen nur autorisierte Nutzer Daten bearbeiten können, jedoch können unbeabsichtigte Veränderungen auftreten durch bspw. schädliche Software oder durch menschliche bzw. systemkritische Fehler.

Als Techniken zur Vermeidung von Datenverlust kommen unter anderem Hashing Algorithmen zum Einsatz. Bei einem Hash handelt es sich einfach um eine Zahl, welche beim Ausführen des Algorithmus im Bezug auf die Datei kreiert wird und wie Message Digest(MD5), Secure Hash Algorithm 1 (SHA-1) und Hash-based Message Authentication Code(HMAC). Weitere Methoden der Sicherstellung von Integrität beinhalten Digitale Signaturen, Zertifikate etc. Digitale Signaturen, Zertifikate und Nachweisbarkeit bzw. Unleugbarkeit . Bei den sogenannten digitalen Signaturen handelt um eine quasi Nachbildung einer analogen, schriftlichen Signatur wie bei einem Vertrag. Digitale Signaturen werden meistens im Email-Verkehr genutzt und sie können Authentifizierung bereitstellen bzw. gewährleisten.

Die digitale Signatur des Senders wird an die zu übermittelten Daten, in diesem Fall Nachricht, angehängt und gewährleistet dem Empfänger die Authentizität des Senders sowie die Integrität der Nachricht. Angreifer werden davon abgehalten die Identität einer Person zu imitieren. Darüber hinaus gewährleistet solch eine Technik die sogenannte Unleugbarkeit oder im englischen geläufig als non-repudiation. Es wird somit bewiesen, dass Informationen von der angegebenen Quelle stammen und die Identität korrekt ist. Dabei werden unterschiedliche Methoden verwenden.

Samstag, 22. November 2014

IT-Sicherheit: Monitoring

Sicherheitssysteme - Monitoring

Selbst die besten präventiven Sicherheitssysteme sind nicht narrensicher. Wenn ein sicherheitsrelevantes Ereignis eintritt, ist wichtig, über Monitoring-Systeme zu verfügen. Sobald das Ereignis ausgelöst wurde, muss eine Antwortaktion ausgelöst werden, um jede böswillige Verwendung des Geräts oder einer aktiven SIM zu verhindern.

Eine Backend-Anwendung sollte Funktionalitäten beinhalten, die Anomalien in den empfangen Daten loggen. Wenn zum Beispiel ein Gerät programmiert ist, ohne Unterbrechungen Sensordaten zu senden, aber sich das Übertragungsmuster aus unerklärlichen Gründen plötzlich ändert, so sollte die System-Administratoren benachrichtigt werden und, wenn möglich, das Gerät von der Kommunikation mit dem Server ausgesperrt werden.

Ein Vorteil eines stehenden site-to-site -VPN- Tunnel zwischen dem Anwendungsserver und dem M2M- Betreiber ist , dass ein fehlerhaftes oder verdächtiges Verhalten aufweisendes Gerät eine feste IP-Adresse hat, über das es leicht zu identifizieren, zu isolieren und gegenebenfalls zu blockieren ist.

Freitag, 22. November 2013

IT-Sicherheit: Zugriffskontrolle

Zugriffskontrollen für IT-Systeme

Nicht-öffentliche Informationen sollten grundsätzlich verschlüsselt werden, in einigen Fällen kann Vertraulichkeit jedoch weit weniger wichtig als Fragen der Zugriffsmöglichkeiten und der Authentifizierung sein. Beispielsweise können die Daten die mit einem Wireless- Befehl, um eine Tür zu öffnen möglicherweise nicht vertraulich übertragen werden, aber es ist dennoch wichtig, dass keine Unbefugten durch dieses System Zugriff darauf bekommen, diese Tür zu entriegeln.

Sicherheit erfordert einen methodischen Ansatz, die jedes Element in einem Technologie-Stack untersucht und sichert. Beginnend mit dem Betriebssystem bis nach unten auf die Hardware-Ebene, ist es wichtig zu verstehen, dass keine Verteidigungslinie für sich alleine genommen ausreichend für einen vollständigen Schutz sein kann.

M2M Hardware sollte mit internen Komponenten, die die drahtlose Konnektivität ermöglichen entworfen und so ausgelegt werden, dass diese Komponenten umschlossen und geschützt werden. Bei Geräten mit einer herausnehmbaren SIM-Karte sollten Maßnahmen getroffen, damit die SIM nicht leicht zugänglich ist. Eine gestohlene SIM könnte zu unerwarteten Gebühren, oder noch schlimmer noch dazu führen, dass ein Hacker sich direkten Zugriff auf Backend -Anwendungsserver verschaffen kann.

Neben der Sicherung der Hardware selbst, sollten auch Schritte unternommen werden, um den Zugriff auf Software-Systeme zu verhindern. Datensignatur kann verwendet werden, um die Authentizität und Integrität der übertragenen Daten zu gewährleisten.

Montag, 7. November 2011

Raid System für NAS?

ICh möchte mir gerne bald ein NAS zulegen. Allerdings bin ich ob der mittlerweile großen Anzahl an verschiedenen RAID-Möglichkeiten verwirrt.

Auf welches RAID-System soll ich zugreifen, wenn ich maximale Datensicherheit + größtmöglichen Speicher haben will? Raid 1 hört sich nett an, beschneidet die Kapazität aber erheblich. Über Raid 3 und Raid 5 habe ich auch schon einiges gehört, allerdings reichen meine Kenntnisse nicht aus, um mich für eine der drei Möglichkeiten zu entscheiden. Auch hätte ich gerne eine Lösung die einigermaßen billig ist, Späße wie Raid 53 oder Raid 50 scheiden also wohl aus. Öko-Platten, ja oder nein? Habe gehört sie seien stromsparender, aber wegen SpinUp und SpinDown wesentlich anfälliger für Defekte.


Außerdem frage ich mich: Fertig-Lösung oder selber basteln? Geringer Stromverbrauch wäre mir wohl am wichtigsten. Würde es auch noch gerne als Access-Point verwenden, da es wohl 24/7 laufen würde und mein Router keine WLAN-Funktion hat (Glasfaserkabel).

So die Problemstellung am Anfang, letztendlich habe ich nach intensivem rumfragen und recherchieren dann folgendes herausgefunden:


Raid 5 verteilt die Blöcke und hat für jeden Block eine Parität auf einer anderen Platte. Damit kann eine ausfallen. Funktioniert also so wie im Schema skizziert..

Wenn man es sich leisten kannst, nimm was fertiges, denn es dürfte nicht ganz trivial sein da passende und günstige Komponenten auszuwählen. Hinzukommt, dass bei ei einem Datenvolumen von unter 10tb ein paar zusätzlichen Festplatten selbst mit doppelter Kapazität günstiger und praktischer sein dürften als ein Raid-NAS.

Bezüglich der Öko Festplatten: WD Green Platten brauchen teilweise 10 Sekunden für einen Spin-Up. Für manche RAID-Verwaltung kann das als Antwortzeit zu lang sein und die Platte fliegt als defekt aus dem Verbund raus. Ich würde davon ganz klar abraten. Die (geringe) Stromersparnis ist den Ärger auf keinen Fall wert.


Zitat von einem Kollegen: Ich hab mir kürzlich dasselbe zusammengeschraubt: Es ist definitiv eine gute Idee das OS auf nen flash speicher (sollte sehr schnell sein) und nicht auf die platten zu packen, somit kannste die platten im normalfall schnell mal rausziehen. besonders sinnvoll bei software raid. Wer Strom sparen will kann auch zu 2.5" Platten greifen. Kaufe dir einen Router an den du per USB eine Festplatte anschliessen kannst. Auf RAID würde ich verzichten und stattdessen über das Netzwerk ein automatisches Backup der Daten auf eine Platte an einem stationären Rechner einrichten. Naja, die Velociraptoren sind doch erheblich teuer. Man legt rund vier- bis fünfmal mehr Geld auf den Tisch im Vergleich zu normalen HDDs und bekommt dafür aber nur minimale Mehrleistung.

Da nehme ich doch lieber eine SSD wenn's auf Geschwindigkeit ankommt (Systemplatte oder so). Wenn's dagegen auf viel Speicher ankommt, nehme ich lieber eine 7200er-HDD (ist ja kaum langsamer als die Velociraptor). In der Transferleistung sind die 7200 vs 10000 vllt ebenwürdig aber nicht bei den Zugriffszeiten, die sich z.B. bei einem ESXi Server oder MySQL Server sehr bemerkbar machen.

Klar, nur wegen der Zugriffszeit waren die überhaupt interessant. Aber SSDs sind da mindestens um den Faktor 10 besser, und bei der Transferrate auch weitaus schneller. Ich wüsste nicht was noch für die schnelldrehenden Platten spricht, gerade wenn sie vergleichsweise teuer sind.