Archiv der Kategorie: Unkategorisiert

IT Information

IT-Sicherheitsgesetz 2.0: die wichtigsten Informationen im Überblick

Das zweite Gesetz zur Erhöhung der Sicherheit informationstechnischer Systeme, kurz IT-SiG 2.0 ist seit Mai 2021 in Kraft. Das IT-Sicherheitsgesetz 2.0 ist eine Ergänzung des BSI-Gesetzes aus dem Jahr 2009 (auch als BSIG bekannt, das Gesetz über das Bundesamt für Sicherheit in der Informationstechnik). Es folgt auf das erste Gesetz zur Erhöhung der Sicherheit informationstechnischer Systeme, welches bereits 2015 rechtskräftig wurde und zusammen mit dem BSI die Sicherheit Kritischer Infrastrukturen (KRITIS) regelt sowie Pflichten und Aufgaben von Betreibern und Staat festlegt. Das neue IT-SiG konkretisiert die Anforderungen an KRITIS-Unternehmen und verpflichtet diese, die neuen Sicherheitsmaßnahmen bis Mai 2023 umzusetzen. Die Zeit wird also knapp, deshalb ist das Gesetz aktuell so präsent in den News-Seiten und auf Fachportalen. Sie finden eine Übersicht der wichtigsten Neuerungen und Regelungen in diesem BIENE IT Blogbeitrag.

Welche Regelungen und Herausforderungen beinhaltet das IT-SiG 2.0?
Im Fokus der neuen Anforderungen stehen nicht nur KRITIS-Betreiber, sondern auch die Unternehmen im besonderen öffentlichen Interesse (kurz UBI). Neu ist außerdem die Etablierung der Einrichtungen zur Siedlungsabfallentsorgung als neuen KRITIS-Sektors.

Somit gehören folgende Bereiche zu der Gruppe der KRITIS-Betriebe:

  • Finanz- und Versicherungswesen
  • Ernährung
  • Wasserversorgung
  • Transport & Verkehr
  • Informationstechnik- & Telekommunikation
  • Gesundheit / medizinische Versorgung
  • Energieversorgung
  • Staat & Verwaltung

Zur Verdeutlichung: „Kritische Infrastrukturen (KRITIS) sind Organisationen oder Einrichtungen mit wichtiger Bedeutung für das staatliche Gemeinwesen, bei deren Ausfall oder Beeinträchtigung nachhaltig wirkende Versorgungsengpässe, erhebliche Störungen der öffentlichen Sicherheit oder andere dramatische Folgen eintreten würden.“ (Quelle: https://www.bbk.bund.de/DE/Themen/Kritische-Infrastrukturen/kritische-infrastrukturen_node.html#:~:text=Die%20Versorgung%20mit%20diesen%20und,aber%20auch%20die%20medizinische%20Versorgung)

Das aktualisierte IT-SiG sieht eine Reihe von Regelungen für KRITIS-Unternehmen vor, darunter Informations- und Meldepflichten gegenüber dem BSI, zum Beispiel in Bezug auf IT-Produkte, welche für die Gewährleistung von Funktionalität wichtig sind sowie Bekanntgabe kritischer Störungen. Zu den Pflichten gehört außerdem die Einhaltung von Mindestsicherheitsstandards, unter anderem durch den Einsatz von sogenannten Intrusion Detection Systemen. Sie sind in der Lage, mithilfe von Log-Dateien Angriffe auf Computer, Server und Netzwerke zu erkennen. Auch Sicherheitsanforderungen für kritische Komponenten (bestimmte IT-Produkte) müssen eingehalten werden. Was die Letzteren angeht, lautet die Regelung: ein KRITIS-Unternehmen muss den erstmaligen Einsatz von kritischen Komponenten beim BSI anzeigen. Es muss eine Garantieerklärung der Vertrauenswürdigkeit vom Hersteller vorliegen. Neu: Diese erstreckt sich auf die gesamte Lieferkette des Herstellers.

Zu den kritischen Komponenten zählen IT-Produkte, die in den KRITIS eingesetzt werden und Verfügbarkeit, Integrität, Authentizität und Vertraulichkeit gewährleisten. Somit sind sie bedeutend fürs Funktionieren des Gemeinwesens. Die betroffenen IT-Produkte werden entweder gesetzmäßig als kritische Komponenten bestimmt oder durch ihre kritische Funktion in einem KRITIS-Unternehmen als solche definiert. Das BSI hat laut Gesetz ein Veto-Recht, kann also die Verwendung von kritischen Komponenten verbieten, falls es nach der Einschätzung des Ministeriums durch den Einsatz dieses IT-Produkts zu einer Beeinträchtigung der öffentlichen Sicherheit und Ordnung kommen kann.

Gravierende Ausfallfolgen werden auch bei den UBI vermutet, weshalb sie sich ebenfalls beim BSI registrieren und erhebliche Störungen melden müssen, zum Beispiel Sicherheitslücken, Schadprogramme oder Cyberangriffe. Diese Kategorie umfasst Rüstungsbetriebe und Hersteller von IT-Produkten für die Verarbeitung staatlicher Verschlusssachen sowie Unternehmen mit einer hohen volkswirtschaftlichen Bedeutung (und auch ihre Zulieferer, wenn sie von wesentlicher Bedeutung sind) und Firmen aus dem Sektor der Gefahrstoffe (Chemieunternehmen). Die Ersteren sind zum 1. Mai 2023 verpflichtet, eine Selbsterklärung über IT-Sicherheit und eine Registrierung beim BSI einzureichen. Für die Unternehmen mit hoher volkswirtschaftlichen Bedeutung besteht aktuell kein Handlungsbedarf. Die Betriebe aus dem Bereich Gefahrstoffe sind bereits seit 2021 zu Vorfallsmeldungen verpflichtet.

Das aktualisierte IT-Sicherheitsgesetz ist unter anderem auf die Zunahme von Cyberangriffen auf KRITIS-Einrichtungen bzw. auf gesellschaftlich relevante Betriebe zurückzuführen und verfolgt das Ziel, diese Bereiche gegen fortschrittliche Angriffsmethoden, wie zum Beispiel Ransomware, besser aufzustellen. Vor diesem Hintergrund soll die Cybersicherheit von KRITIS- und UBI-Unternehmen erhöht werden. Die allgemeine Cybersicherheit ist für das IT-SiG 2.0 ebenso von großer Bedeutung: “Ziel des IT-Sicherheitsgesetzes ist aber auch die Verbesserung der IT-Sicherheit bei Unternehmen und in der Bundesverwaltung, sowie ein besserer Schutz der Bürgerinnen und Bürger im Internet.” (Quelle: https://www.bsi.bund.de/DE/Das-BSI/Auftrag/Gesetze-und-Verordnungen/IT-SiG/1-0/it_sig-1-0_node.html#:~:text=Mit%20dem%20seit%20Juli%202015,den%20sichersten%20weltweit%20zu%20machen)

Die Veränderungen beim IT-SiG 2.0 umfassen sowohl zusätzliche Pflichten für die betroffenen Unternehmen als auch neue Befugnisse des Bundesamts für Sicherheit in der Informationstechnik. Neben dem oben erwähnten Veto-Recht für den Einsatz von kritischen Komponenten, erhält das BSI weitere Kompetenzen. Diese beinhalten Definition und Kontrolle von Mindeststandards zum Schutz der IT-Systeme sowie Festlegen vom neusten Stand der Technik für sicherheitstechnische Anforderungen an IT-Produkte. Darüber hinaus ist es dem Ministerium erlaubt, die KRITIS-Betreiber selbst zu registrieren, wenn diese der Anmeldepflicht nicht nachkommen. Der Anspruch auf Auskünfte ergänzt die Befugnisse des BSI: Das Ministerium kann beispielsweise den Nachweis von Systemen zur Angriffs- und Anomalieerkennung verlangen. Diese wurden oben bereits genannt (Intrusion Detection Systemen) und sollen im nächsten Abschnitt separat erläutert werden.

Für maximale IT-Sicherheit: was hat es mit Angriffserkennung auf sich?
Die Mindestsicherheitsstandards von IT-SiG 2.0 schließen Systeme zur Angriffs- und Anomalieerkennung nach dem neusten Stand der Technik mit ein, die in den KRITIS- und UBI-Betrieben spätestens zum 1. Mai 2023 implementiert werden müssen. Die Intention dahinter: kontinuierliche automatische Überwachung zum Vorbeugen bzw. möglichst frühem Erkennen von Cyberangriffen. Die Systeme zur Angriffs- und Anomalieerkennung gleichen die Daten des laufenden IT-Betriebs mit bestimmten Parametern, Merkmalen und technischen Mustern ab, die auf Sicherheitsvorfälle hindeuten. Als eine geeignete Methode zur Angriffserkennung wird im neuen IT-Sicherheitsgesetz die automatisierte Anomalieerkennung empfohlen. Diese erkennt die Abweichungen im Normalverhalten legitimer Teilnehmer und weist auf diverse Auffälligkeiten in Echtzeit hin. Weitere verpflichtende Sicherheitsmaßnahmen enthalten unter anderem die Ausarbeitung von Reaktionsplänen und Präventionsmaßnahmen im Fall einer massiven Störung.

IT-Sicherheit durch staatliche Regulierung: die Resonanz zum IT-SiG 2.0
Bei Nicht-Einhaltung der Pflichten, die aus dem aktualisierten IT-Sicherheitsgesetz hervorgehen, drohen den betroffenen Unternehmen hohe Bußgelder. Für viele Betriebe besteht also akuter Handlungsbedarf. Trotz aufwendiger Aufrüstungen in Sachen Cybersicherheit wird das neue Gesetz von vielen Seiten begrüßt, weil er dazu beitragen soll, die Kritische Infrastruktur vor Cyberangriffen zu schützen bzw. die Versorgungssicherheit sicherzustellen. Anderseits gibt es Gegenstimmen, die insbesondere eine staatliche Überregulierung befürchten und hohe bürokratische Hürden kritisieren. Mehrere Statistiken belegen: Cyberattacken nehmen zu, auch auf Unternehmen Kritischer Infrastruktur. Sie werden außerdem immer raffinierter und benötigen entsprechende Schutzmaßnahmen. Wir von BIENE IT unterstützen Sie gern in Sachen IT-Sicherheit im Unternehmen und sorgen für einen reibungslosen Workflow. Wir freuen uns auf Ihre Anfrage!

IT Security - BieneIT

IT-Sicherheit im Unternehmen: einfache Maßnahmen zur Risikoreduktion

Das Thema IT-Sicherheit gewinnt immer mehr an Bedeutung im unternehmerischen Umfeld. Die Gründe für diese Entwicklung sind vielfältig. Zum einen hat die Corona-Pandemie das remote Arbeiten begünstigt, zum anderen zeichnet sich seit Jahren der Trend zu neuen Arbeitsstrukturen ab. Unter dem Stichwort New Work bekannt, bezeichnet diese Arbeitsweise ein ortsunabhängiges Arbeiten, egal ob unterwegs, im Homeoffice oder in den Co-Working Spaces. Dementsprechend haben viele MitarbeiterInnen einen virtuellen Zugriff auf relevante IT-Systeme und Anwendungen. Diese enthalten in der Regel wichtige Informationen einschließlich sensibler Geschäfts- und Kundendaten, die nicht für Dritte vorgesehen sind. Gelangen diese Informationen an die Öffentlichkeit (zum Beispiel durch einen Cyberangriff), kann das nicht nur den Ruf und das Vertrauen der KundInnen zerstören, sondern auch die gesamte wirtschaftliche Existenz beeinträchtigen. Ein Cyberangriff ist heutzutage eine reale Gefahr für Unternehmen jeder Größe und jeder Branchen-Ausrichtung. Die gute Nachricht lautet: mit einer durchdachten Strategie zur Erhöhung der IT-Sicherheit lassen sich die Risiken eines solchen Angriffs minimieren und die Ausfallzeiten begrenzen. Besonders effektiv sind Präventionsmaßnahmen, die aus mehreren Komponenten bestehen.

 

Für uns haben sich folgende Präventionsmaßnahmen bewährt:

1. Datensicherung zusätzlich analog auf Band
Die zusätzliche Bandsicherung auf physischem Datenträger ist nach wie vor eine der effektivsten Backup-Lösungen. Bei dieser analogen Variante ist es wichtig, alle geschäftskritischen Daten regelmäßig zu sichern und zu prüfen. Der offensichtliche Vorteil dieser Offline-Alternative: die Bandsicherung bietet eine schnelle Möglichkeit zur Datenwiederherstellung. Die Informationen lassen sich einfach auf die Ursprungssysteme zurückspielen. Weitere Vorzüge dieser Speichertechnik: große Kapazität, ein gutes Preis-Leistungs-Verhältnis pro Gigabyte, eine relativ hohe Datenübertragungsgeschwindigkeit und lange Haltbarkeit. Die Bandsicherung ist somit insbesondere für Unternehmen von Interesse, die große Back-ups lange lagern oder archivieren müssen. Werden die Sicherungsbänder am externen Ort aufbewahrt, sind sie auch vor eventuellen Einbrüchen in die Unternehmensräume oder Naturkatastrophen vor Ort gut geschützt. Als Offline-Datenträger sind die Bänder von allen IT-Netzwerken getrennt („air-gapped“), dadurch können sie nicht mit Schadsoftware infiziert werden.

2. Wöchentliche Test-Daten-Rücksicherungen
Eine regelmäßige Sicherung der relevanten Geschäftsdaten ist essenziell. Genauso wichtig ist es, diese Sicherungen in regelmäßigen Abständen zu überprüfen. Wir empfehlen stichprobenartige Test-Daten-Rücksicherungen einmal pro Woche. Die Recovery-Durchführung bezieht sich nämlich auf den Zweck der Datensicherung: die Informationen im Notfall schnell und vollständig wiederherstellen zu können. Andernfalls drohen Datenverluste und meistens auch die damit verbundenen finanziellen Einbuße. Deshalb sollten Test-Daten-Rücksicherungen ein regulärer Teil der firmeninternen Backup-Lösungen sein.

3. Einsatz von Next Generation Firewall (NGFW)
Im Gegensatz zu den Vorgängerversionen, die den eingehenden Datenverkehr auf Grundlage bekannter Protokolle und Ports untersuchen und bei Auffälligkeiten den Zugang zum System blockieren, differenzieren die neueren Firewalls viel stärker die einzelnen Arten der Datenübertragung. Sie analysieren nämlich nicht nur Port und Protokoll, sondern auch die Inhalte des Datenstroms. Dadurch ist es möglich, einzelne infizierte Dateien vor der Übertragung herauszufiltern und somit das eigene Netzwerk proaktiv zu schützen. Die Next Generation Firewalls agieren außerdem viel autonomer und können unabhängig von bestehenden Regeln entscheiden, welche Inhalten blockiert werden – auf Basis eigener Analysen. Die NGFWs verbinden somit regelbasierte Vorgehensweise mit Intrusion Prevention Systemen (IPS) und einer Applikationskontrolle. Das bedeutet: die Next Generation Firewall kann bei erkannten Gefahren unterschiedliche Maßnahmen zur Abwehr des Angriffes selbstständig ergreifen. Einige moderne Lösungen bieten zusätzliche Funktionen an, u. a. Content-Filter, Antispam oder Antivirus.

4. Einsatz von Next Generation Antivirus (NGAV)
Der herkömmliche Virenschutz funktioniert anhand des Signaturabgleichs und heuristischer Analysen. Die ursprünglichen AV Lösungen erkennen bestimmte Zeichenfolgen, die verschiedenen Arten von Malware zugeordnet werden und verhindern somit einen Cyberangriff. Die NGAV Lösungen sind als ganzheitlicher Sicherheitsansatz konzipiert und u. a. auch gegen dateilose Angriffe bzw. non-malware Attacken effektiv. Generell sind mit dem Begriff Next Generation Antivirus Sicherheitslösungen gemeint, die einen proaktiven und auf das System ausgerichteten Schutzansatz verfolgen und eine noch größere Vielfalt an Bedrohungen abdecken. Sie zeichnen sich durch automatische Gegenmaßnahmen aus: Es handelt sich dabei um die Fähigkeit, Probleme eigenständig, ohne Benutzereingaben zu erkennen und zu beheben. Moderne Lösungen beanspruchen in der Regel geringere Platzkapazitäten, ihre Installation und Bedienung sind weniger zeit- und ressourcenintensiv. Neben Malware-Signaturen bzw. heuristischen Analysen kommen beim Virenschutz der neusten Generation weitere Technologien zum Einsatz, wie zum Beispiel Cloud-Scans.

5. Segmentierte Netzbereiche
Die Netzwerksegmentierung ist ein Architekturansatz, bei dem ein Netzwerk in mehrere Segmente aufgeteilt wird, wobei separate segmentierte Netzbereiche entstehen. Jeder Einzelne fungiert dann als Subnetz, also ein eigenes kleines Netzwerk. Diese Art von Netzwerksegmentierung wird als physisch bezeichnet. Bei der logischen Segmentierung werden Subnetze meistens durch sogenannte Virtual Local Area Networks (VLANs) erstellt. Bei den VLAN-basierten Ansätzen wird der Datenverkehr anhand spezieller Markierungen automatisch an das entsprechende Subnetz geleitet. Segmentierte Netzbereiche können aufgrund der Isolierung die Ausbreitung der Bedrohungen stoppen bzw. auf ein einzelnes Netzwerk begrenzen. Es ist möglich, Sicherheitskontrollen und Anforderungen für jedes Subnetzwerk individuell zu bestimmen. Der klare Nutzen jeder Segmentierung: Vorbeugung größerer Schäden. Ein weiterer weniger offensichtlicher Vorteil: dank Netzwerksegmentierung werden Überlastungen reduziert und somit die Gesamt-Performance verbessert.

6. Einsatz von IPsec / SSL Sicherheitsprotokollen
Der Begriff IPsec ist eine Abkürzung für Internet Protocol Secure. Er bezeichnet eine Gruppe von Protokollen, die beim Aufbau von verschlüsselten Verbindungen zwischen Geräten verwendet werden. Der IPsec schützt Daten, die über öffentliche Netzwerke übertragen werden, indem er sie verschlüsselt. Die Bezeichnung SSL steht für Secure Sockets Layer. Dieser Sicherheitsprotokoll codiert den HTTP-Traffic, zum Beispiel bei Verbindungen zwischen Nutzergeräten und Webservern. Der SSL ist außerdem in der Lage, bestimmte Cyberangriffe zu blockieren. Da dieser Sicherheitsprotokoll Webserver authentifiziert, kann er gefälschte Webseiten erkennen und verhindert darüber hinaus, dass Angreifer Daten während der Übertragung manipulieren können. Sowohl IPsec als auch SSL werden beim Einrichten von VPNs verwendet. Der Hauptunterschied: mit einem Sicherheitsprotokoll auf Basis von SSL ist es möglich, einen begrenzten Zugriff auf Web-Anwendungen zu konfigurieren. Mit IPsec VPN kann jede/r NutzerIn alle im VPN enthaltenen Daten einsehen: die Funktion der individuellen Zugangskontrolle ist hier also nicht gegeben.

7. Citrix Workspace mit diverseren Beschränkungen
Citrix Workspace bietet digitale Arbeitsplatzlösungen, die orts- und geräteunabhängig verfügbar sind. Der Zugriff erfolgt über eine einheitliche Benutzeroberfläche und verfolgt den Zero-Trust-Ansatz. Dieser kann Angriffe auf Netzwerkebene verhindern. Wir nehmen weitere spezielle Konfigurationen vor, zum Beispiel bezüglich Sicherheitsrichtlinien, damit Ihre IT-Sicherheit zusätzlich erhöht wird.

8. Useraccount mit 2FA
Die Abkürzung 2FA steht für Zwei-Faktor-Authentifizierung (der Oberbegriff ist MFA gleich Multi-Faktor-Authentifizierung). Gemeint ist jeweils ein Anmeldeprozess, der mehr als nur ein Passwort erfordert. Beim Einlogen in den Useraccount wird neben dem Passwort ein weiterer Faktor gebraucht, um die Anmeldung abzuschließen. Der Hintergrund: viele Nutzer verwenden das gleiche Passwort für mehrere Accounts. Wird eines davon gehackt, haben Cyberkriminelle es leicht, sich in andere Systeme einzuloggen. Die zweistufige Überprüfung baut eine zusätzliche Sicherheitsbarriere auf, indem zum Beispiel nach einem Einmal-Code oder einem Fingerabdruck verlangt wird. Als besonders sicher gilt die Faktoren-Kombination aus verschiedenen Kategorien, beispielsweise Wissen (Passwort, Code, Sicherheitsfragen), Biometrie (Fingerabdruck) und Besitz (Chipkarte). Übrigens: der gleiche Sicherheitsansatz lässt sich auch bei VPN-Verbindungen anwenden.

9. Wöchentliche Nessus Scans der kompletten IT-Infrastruktur
Der Nessus ist ein Netzwerk und Vulnerability Scanner für fast jedes gängige Betriebssystem (Linux, Unix, Windows, macOS). Er gehört zu den etablierten Tools zur Prüfung der IT-Sicherheit: mithilfe von Nessus Scans können Schwachstellen entdeckt und Sicherheitslecks geschlossen werden. Den NutzerInnen stehen viele Plug-ins zur Verfügung, die nach dem Download entsprechende Systeme und Elemente unter die Lupe nehmen. Dank dem Client-Server-Prinzip ist es mit Nessus möglich, ausgehend vom Server sich mit einem oder mehreren Clients zu verbinden. Deshalb wird er auch als „remote scanner“ bezeichnet. Sobald alle gewünschten Scans ausgeführt sind, gibt Nessus eine Übersicht über eventuelle Sicherheitslücken bzw. offene Ports. Wir empfehlen wöchentliche Nessus Scans der gesamten IT-Infrastruktur.

10. Durchführung bzw. Auswertung eines Penetrationstests
Der sogenannte IT-Penetrationstest, kurz Pentest, ist ein umfassender Sicherheitstest einzelner Rechner und/oder Netzwerke. Im Grunde genommen ist es ein gezielter Test-Hacker-Angriff. Da es sich um eine vereinbarte kontrollierte Attacke handelt, wird synonym der Begriff Ethical Hacking verwendet. Mit Ihrer Zustimmung simulieren wir einen Hacker-Angriff auf Ihre Systeme (intern und/oder extern), um mögliche Sicherheitslücken und Schwachstellen (Server-Systeme, Firewalls, WLAN-Netzen, VPN-Zugänge etc.) aufzudecken und zu schließen. Der Pentest ist eine Art Momentaufnahme, denn er bezieht sich immer auf den aktuellen Zustand Ihrer Systeme und die zum Zeitpunkt der Durchführung bekannten Bedrohungsszenarien. Ein Penetrationstest ist eine kundenspezifische Leistung und wird auf die jeweilige IT-Infrastruktur ausgerichtet. Durch den Pentest können Sie nicht nur eventuelle Schwachstellen identifizieren, sondern auch ernsthaften Reputations- und Finanzverlusten vorzubeugen. Die Ergebnisse geben Aufschlüsse über das aktuelle Sicherheitsniveau bzw. die Verwundbarkeit Ihrer IT-Systeme. Die Reports sollen gründlich ausgewertet werden und als Grundlage für das Konzept der firmeninternen IT-Sicherheit dienen.

Ransomware - BieneIT

Ransomware: Schutz und Risiken für jedes Unternehmen

Den Begriff Ransomware haben Sie mit Sicherheit schon mal gehört. So werden Schadprogramme bezeichnet, die den Zugriff auf Daten oder ganze Systeme einschränken und erst bei Bezahlen von Lösegeld (Englisch: ransom) wieder freigeben. Meist verbirgt sich hinter den Ransomware Angriffen der sogenannte Verschlüsselungstrojaner, der alle Informationen nach bestimmtem Code umschreibt und sie somit unlesbar bzw. unbrauchbar macht.

 

 

Ransomware Attacken haben in letzter Zeit zugenommen
Die Ursachen dafür liegen zum einen in der Corona-Pandemie und dem dadurch bedingten Übergang zum Homeoffice, zum anderem am generellen Trend zum remote Arbeiten. Die sogenannte New Work Bewegung steht nicht nur für Homeoffice-Option, sondern auch für Co-Working-Spaces und digitales Nomadentum. Egal, um welchen praktischen Ansatz es sich handelt, bei der New Work geht es vor allem um flexible Arbeitsgestaltung. Diese bietet allerdings nicht nur Chancen, sie birgt auch Risiken. Unternehmen müssen digitale Arbeitsplätze schaffen, damit die MitarbeiterInnen remote arbeiten können, doch diese sind sehr anfällig für Ransomware Attacken. Besonders verheerend können die Folgen von Ransomware Angriffen für Unternehmen mit vernetzter IT-Infrastruktur ausfallen: in diesem Fall werden meistens auch die angebundenen Netzwerke durch den Verschlüsselungstrojaner lahmgelegt.

Ohne ein modernes IT-Sicherheitsmanagement ist auch Ihr Unternehmen eine leichte Beute für Cyberkriminelle. Unsere Erfahrung beweist ebenso wie die neuesten Erkenntnisse und Statistiken zur Cyberkriminalität: die IT-Sicherheitsvorfälle haben stark zugenommen – auch das Ausmaß der Folgen ist viel massiver als noch vor ein paar Jahren. Nur ein Beispiel aus unserer Praxis: 6 Monate Wiederherstellungszeit, 600.000 Euro an Zusatzkosten – enorme Ausgaben für ein mittelständiges Unternehmen. Nicht mitberechnet sind hierbei die Kosten für den Ausfall der IT-Infrastruktur bzw. Produktionssysteme etc. Solche IT-Sicherheitsvorfälle machen deutlich: die Investition in die Cybersicherheit lohnt sich für jedes Unternehmen! Ein professionelles IT-Sicherheitsmanagement garantiert eine schnelle Wiederherstellung der durch den Verschlüsselungstrojaner umcodierten Daten; somit verringern sich auch die Ausfallzeiten. Ganz zu schweigen davon, dass Sie der Cyberkriminalität die Stirn bieten und kein Lösegeld zu zahlen brauchen.

Welche Maßnahmen der IT-Sicherheit bieten wir Ihnen?
Wir setzen auf verschiedene Verfahren der Cybersicherheit, die wir nach Ihren Wünschen anpassen können. Zu unseren Leistungen gehören Infrastructure-as-a-Service (IaaS) und Desktop-as-a-Service (DaaS). Beides sind cloudbasierte Ansätze der IT-Infrastruktur und punkten mit hoher IT-Sicherheit, so bieten sie unter anderem einen zuverlässigen Ransomware Schutz. Egal, ob Sie sich für Infrastructure-as-a-Service oder Desktop-as-a-Service entscheiden, wir stellen in jedem Fall sicher, dass Ihre Daten im Falle eines Ransomware Angriffs schnell wiederhergestellt sind und Sie mit Ihrer Arbeit ohne lange Ausfallzeiten fortfahren können. Im Rahmen der Infrastructure-as-a-Service Lösung übernehmen wir die Verwaltung Ihrer kompletten IT-Infrastruktur, während wir Ihnen bei dem Desktop-as-a-Service Konzept einfach digitale Arbeitsplätze für Sie und Ihre MitarbeiterInnen zur Verfügung stellen. Wichtig: die einzelnen Leistungen können Sie bei beiden Lösungen je nach Unternehmensinteressen anpassen. Das bedeutet: ändert sich Ihr aktueller Bedarf, können Sie die alle Komponenten bei beiden Lösungen hoch- oder herunterskalieren – und das jederzeit.

Infrastructure-as-a-Service
Bei der Infrastructure-as-a-Service stellen wir Ihnen bedarfsgerecht verschiedene Komponenten einer Rechenzentrumsinfrastruktur aus unserer Cloud bereit, zum Beispiel Server, Speicherplatz, Netzwerkressourcen etc. Außerdem stehen wir Ihnen mit technischem Support zur Seite: Sie profitieren also auch von unserem Expertenwissen. Weiterer Pluspunkt: Sie benötigen keine eigenen Rechenzentren und können so unter anderem die Hardwarekosten einsparen. Unabhängig davon, welche einzelnen Komponenten für Sie infrage kommen, mit der Infrastructure-as-a-Service Lösung können Sie Ihre IT-Infrastruktur flexibel anpassen und vom höchst möglichen Maß an IT-Sicherheit ausgehen.

Desktop-as-a-Service
Das Gleiche gilt auch für die Desktop-as-a-Service Lösung. Dadurch, dass wir für Sie virtuelle Desktops und Anwendungen bereitstellen, profitieren Sie nicht nur von hoher IT-Sicherheit, u. a. zuverlässigem Ransomware Schutz, sondern auch von vielen anderen Benefits. Ihre MitarbeiterInnen genießen die höchst mögliche Flexibilität und können von jedem Endgerät remote arbeiten, und zwar unabhängig vom Standort, also ganz im Sinne von New Work. Selbstverständlich sparen Sie auch hier die Ausgaben für Anschaffung und Wartung eigener Rechenzentren. Wir beraten Sie gern, welche IT-Lösung am besten für Ihr Unternehmen passt: Sprechen Sie uns an!

 

SD-WAN Controller - BieneIT

SD-WAN

What is SD-WAN?

SD-WAN or Software defined WANis a software-defined approach to managing wide-area network (WAN). This means that SD-WAN automatically determines the most efficient way to route traffic between branches and data locations. Powerful Software enables Information Technology (IT) and network engineers’ employees to remotely program edge devices, reduce delivery times and minimize or eliminate the need to manually configure routers in remote locations because SD-WANs are managed by a centralized controller.

Microsoft Hyper V - BieneIT

How to Use Microsoft Hyper-V virtualization (instructions step by step how to create a virtual machine).

What is Microsoft Hyper-V?

Hyper-V is Microsoft’s hardware virtualization product. It lets you create and run a software version of a computer, called a virtual machine. Each virtual machine acts like a complete computer, running an operating system and programs. When you need computing resources, virtual machines give you more flexibility, help save time and money, and are a more efficient way to use hardware than just running one operating system on physical hardware.

Hyper-V runs each virtual machine in its own isolated space, which means you can run more than one virtual machine on the same hardware at the same time. You might want to do this to avoid problems such as a crash affecting the other workloads, or to give different people, groups or services access to different systems.

DevOps Solution - BieneIT

DevOps für Software und Hardware

Was ist DevOps?

Es gibt verschiedene Interpretationen von DevOps (development and operations). Im Grunde existieren bereits viele Merkmale dieses Konzepts in den meisten gut funktionierenden Cloud-Organisationen. Unter diesem Gesichtspunkt ist DevOps eher eine Evolution, denn eine Revolution in der Funktionsweise des IT-Sektors eines Unternehmens.

DevOps kann aus drei Blickwinkeln betrachtet werden – Menschen, Prozesse und Technologien. Durch das Prisma der menschlichen Beziehungen gesehen, ist DevOps eine Philosophie, die traditionelle organisatorische Silos aufbrechen will, insbesondere die strikte Trennung von Teams, die sich mit Anwendungsentwicklung und Infrastrukturmanagement befassen. Es ist üblich, Entwicklungsteams als Boten des Wandels und Verwaltungsteams als Hüter der Stabilität, eben als zwei Teams mit entgegengesetzten Zielen zu sehen, was zu Ineffizienz führt. Der DevOps-Ansatz ändert das. Wenn es um Prozesse geht, integriert DevOps agile Entwicklungsprinzipien in den Modus. Standardmäßig werden agile Prinzipien verwendet, um kontinuierlich den Code für die Produktionsumgebung zu erstellen, aber bei DevOps wird dieses Denken auf die Verwaltung der gesamten Infrastruktur übertragen.

OEM vs ODM - BieneIT

OEM und ODM Entwicklung

OEM (Original Equipment Manufacturing) und ODM (Original Design Manufacturing) sind zwei wichtige Begriffe aus der Fertigungs- und Elektronikindustrie. Die Begriffe können manchmal verwirrend sein für Personen, die neu in diesen Branchen sind. Kleine Unternehmen oder Start-ups mieten einige Ressourcen von OEMs und ODMs, um ihre Endprodukte zu produzieren und zu entwerfen.

Was ist OEM?

OEM (Original Equipment Manufacturer) ist ein Begriff, der das Beziehungsnetzwerk zwischen Hardwarekomponentenherstellern, IT-Softwareanbietern, IT-Hardwarelieferanten und Channel-Partnern wie Distributoren und Resellern beschreibt. Der Begriff Original Equipment Manufacturer bezog sich früher auf ein Unternehmen, das ursprünglich ein bestimmtes Produkt herstellte, welches dann an andere Unternehmen zum Re-Branding und Wiederverkauf veräußert wurde. Mittlerweile hat sich dieser Begriff zu einer Bezeichnung entwickelt, die verschiedene Unternehmen und Beziehungen zwischen Unternehmen beschreibt. OEM-Beziehungen bestehen sehr häufig zwischen Unternehmen, die IT-Produkte auf den Markt bringen. Es ist nicht ungewöhnlich, dass ein Unternehmen als OEM agiert und gleichzeitig Systeme an andere OEMs verkauft. Diese Fluidität in der IT-Welt schafft unklare Beziehungen, weil sie Produktdesigner, Wiederverkäufer und Hersteller leicht verwirren können.

Andererseits kann man feststellen, dass das OEM-Produkt nach der Produktspezifikation des Kunden hergestellt wird. So kann zum Beispiel jedes Produkt, das auf Design, Material, Abmessungen, Funktionen oder sogar die Farben abgestimmt ist, als OEM klassifiziert werden.

OEM-Hauptvorteile

  • Es ist schwierig, das Produkt zu kopieren
  • Das geistige Eigentum am Produkt gehört Ihnen
  • Das Produkt kann an Ihre Anforderungen angepasst werden

Was ist ODM?

ODM (Original Design Manufacturer) ist ein Begriff, der ein Unternehmen beschreibt, das aufgrund der Vorgaben eines anderen Unternehmens oder einer Einzelperson ein Produkt baut, das nach genau diesen Vorgaben entworfen wurde. ODM, als eine Art der Geschäftstätigkeit, ermöglicht es einem Unternehmen, ein Produkt zu vermarkten, ohne die Notwendigkeit eines kompletten Hardware-Designs, und daher ohne Investitionen in Produktionsanlagen. Das Unternehmen, das die Spezifikation erstellt hat, behält in der Regel das Eigentum am Design. Das beste Beispiel für klassisches ODM ist der White Box Server (White Box Server ist ein Rechenzentrums-Computer, der nicht von einem bekannten Markenhersteller hergestellt wird). ODM baut in der Regel Geräte aus kommerziellen Komponenten, die leicht an spezifische Umgebungen angepasst werden können. Der Vorteil von ODM ist, dass kundenspezifische Server schneller gebaut und geliefert werden können. Zudem kann eine Teileschutzgarantie gewährleistet werden.

ODM-Produkte, die oft als „Private Label-Produkte“ bezeichnet werden, können mit einem Kundenlogo versehen werden.

ODM Hauptvorteile

  • Geld- und Zeitersparnis
  • Schnellere Marktentwicklung als OEM
  • Das Unternehmen ist nicht verantwortlich für die Anschaffung von neuem Equipment
  • Die Zusammenarbeit mit vertrauenswürdigen Herstellern reduziert die Wahrscheinlichkeit von Produktduplikaten

OEM Hardware

Die Verwendung des Begriffs OEM im Hardwaresegment der IT-Branche hat mehrere Bedeutungen. OEMs lassen sich am besten durch die bekanntesten Unternehmen wie Hewlett Packard Enterprise (HPE), HP Inc., Dell, EMC und Lenovo beschreiben. Die genannten Unternehmen sind bekannte Hardwarehersteller, die Komponenten von anderen Unternehmen einkaufen und komplette Systeme unter eigener Bezeichnung verkaufen. Diese Unternehmen beziehen Mikroprozessoren, Festplatten und andere Geräte von OEM-Teilelieferanten, die sie als OEM-Kunden betrachten. Die Komponentenlieferanten erstellen häufig sowohl ein OEM-Produkt als auch Retail-Versionen ihres Angebots. Festplattenverkäufer produzieren beispielsweise blanke Festplatten für OEM-Kunden und Einzelhandelsfestplatten, die als Komplettpaket mit Kabel und Installationsanleitungen geliefert werden. Originalmarkenhersteller können auch ganze Systeme von Originalgeräteherstellern (ODMs) kaufen, die verschiedene Computergeräte von Laptops bis hin zu Servern herstellen. ODMs wie Foxconn Electronics Inc. und Quanta Computer Inc. haben in der Vergangenheit Systeme an OEMs verkauft. In den letzten Jahren haben einige ODMs begonnen, auch direkt an große Endkunden zu verkaufen.

OEM Software

Softwareunternehmen verkaufen auch OEM-Versionen ihrer Produkte an große OEMs oder kleinere Systemanbieter, die die Software in ihre eigenen Produkte einbetten. Betriebssysteme und Anwendungen von Drittanbietern, die an Endkunden ausgeliefert werden, sind auf einer Vielzahl von Produkten vorinstalliert. Die besten Beispiele für OEM-Software sind Desktop-Computer, Laptops, Tablets und Smartphones. OEM-Softwarevereinbarungen können auch zwischen Softwareentwicklern sowie zwischen Entwicklern und Hardwarefirmen getroffen werden. Das beste Beispiel dafür ist VMware, da es OEM-Partnern ermöglicht, einige ihrer Virtualisierungsprodukte in ihr Softwareangebot zu integrieren. Darüber hinaus ermöglicht Autodesk den Entwicklern oder Softwareanbietern von Drittlösungen, die Entwicklung von benutzerdefinierten Anwendungen auf der Basis der Autodesk Computerdesign-Software.

OEM VS ODM

Wenn es um den Vergleich von OEM und ODM geht, ist es notwendig mehrere Aspekte zu berücksichtigen, einschließlich der Vor- und Nachteile beider Arten von Produktionssystemen.

OEM-Unternehmen stellen Produkte nach Entwürfen eines anderen Unternehmens her. Der OEM produziert nur das, was der Kunde benötigt. Auf diese Weise profitieren beide Unternehmen voneinander. Oft verfügen Unternehmen nur selten über die notwendigen Maschinen, um große Mengen von Produkten termingerecht zu produzieren, und die Auslagerung der Produktion kann im Vergleich zur Eigenfertigung günstiger sein. Daher lagern diese Unternehmen die Produktion an OEM-Unternehmen aus.

ODM hingegen entwirft und fertigt die Produkte selbst. Diese Produkte werden oft als Empty Products oder White Label bezeichnet. Die Käuferfirma kann sie als ihre Produkte ummarken und verkaufen.

Bei den meisten OEM-Produkten verlangen die Kunden in der Regel die Herstellung von spezifischen Teilen oder Maschinenteilen, die auf einem bestimmten Design basieren. Der Kunde montiert und verkauft diese Teile des Produkts unter seiner Marke. Die meisten dieser Produkte sind zu konkurrenzfähigen Preisen erhältlich, da die Kosten, die während des OEM-Herstellungsprozesses anfallen relativ geringer sind.

ODM-Unternehmen hingegen produzieren die Art von Produkten, die von Kunden benötigt werden. Allerdings können nur bei diesen Produkten Veränderungen vernachlässigt werden. Die Kunden können von diesen Anbietern jedoch profitieren, da sie keine Produkte entwerfen und keine Zeit für Forschung und Entwicklung aufwenden müssen. Die Kunden können das Know-how von ODM-Unternehmen nutzen, die Massengüter zugunsten kleinerer Unternehmen herstellen. Bei der Produktion von ODMs gibt es grundsätzlich zwei Arten von Kategorien, nämlich Private und White Label. Private Label-Produkte sind Fertigprodukte, die an einen bestimmten Anbieter verkauft werden. White-Label-Produkte hingegen sind generische Produkte, die an verschiedene Einzelhändler verkauft und unter verschiedenen Marken vertrieben werden.

OEM-Produkte sind im Grunde genommen Komponenten, die ein Hersteller auf der Grundlage einer Kundenspezifikation verkauft, während ODM-Produkte fertige oder vorgefertigte Produkte sind, die mit der Firmenmarke des Käufers vermarktet werden. ODM-Produkte sind im Vergleich zu OEM-Produkten komplette und fertige Produkte.

Author: Miloš Denić
Ü: Annette Rühle

Kubernetes - BieneIT

Kubernetes

Was ist Kubernetes?

Kubernetes ist eine sehr beliebte Open-Source-Plattform für die Container-Orchestrierung. Das bedeutet, dass die Kubernetes-Plattform die Verwaltung von Anwendungen ermöglicht, die aus mehreren, meist unabhängigenRuntimes, den sogenannten Containern, bestehen. Seit dem Start des Docker Container Projekts im Jahr 2013 sind Container immer beliebter geworden. Mit steigendem Containereinsatz sind große und weit verbreitete Containeranwendungen jedoch immer schwieriger zu koordinieren. Aus diesem Grund erschien Kubernetes und startete eine Revolution. Kubernetes ist zu einem Schlüsselbestandteil der Containerrevolution geworden, weil es die Verwaltung von Containeranwendungen in großem Umfang vereinfacht. Kubernetes wird am häufigsten mit Docker verwendet (Docker ist die beliebteste Containerisierungsplattform). Kubernetes kann auch mit jedem Containersystem arbeiten, das der Open Container Initiative (OCI) entspricht (OCI ist ein Standard für Container-Image-Formate und Runtimes). Wie bereits erwähnt, ist Kubernetes Open Source und hat daher relativ wenig Einschränkungen bei der Nutzung. Kubernetes kann von jedem, der Container betreiben will, frei genutzt werden, auch in der Public Cloud, lokal, oder kombiniert.

Was sind Container?

Die Containertechnologie verdankt ihren Namen der Schifffahrt. Anstatt eine individuelle Versandart für jedes Produkt zu wählen, werden die Waren in Transportcontainern aus Stahl deponiert. Die sind so konzipiert, dass sie dank ihrer Standardgröße vom Kran am Dock angehoben und an Bord gebracht werden können. Durch die Standardisierung des Prozesses und das Aufbewahren der Artikel kann der Behälter als Einheit bewegt werden. Auf diese Weise fallen weniger Kosten an.

Container ist eine Technologiemethode, die es ermöglicht, eine Anwendung so zu verpacken, dass sie mit ihren Abhängigkeiten isoliert von anderen Prozessen ausgeführt werden kann.

Bei der Container-Computertechnology ist die Situation vergleichbar. Ist es jemals passiert, dass ein Programm auf einer Maschine perfekt funktioniert hat, sich aber in ein großes Durcheinander verwandelt hat, wenn es auf die nächste verschoben wurde? Das kann passieren, wenn die Software vom Computer des Entwicklers auf einen Testserver oder von einem physischen Server aus dem Rechenzentrum des Unternehmens auf einen Cloud-Server migriert wird. Es gibt ein Problem bei der Verschiebung der Software aufgrund von Unterschieden in der Maschinenumgebung, wie beispielsweise installiertem Betriebssystem, SSL-Bibliotheken, Netzwerktopologie, Sicherheit und Speicher.

Mit einem Kran, der einen ganzen Container als Einheit für den Transport auf ein Boot oder einen LKW stellt, wird die Beweglichkeit erleichtert. Die Computer-Containertechnologie tut dasselbe. Die Containertechnologie enthält nicht nur Software, sondern auch Abhängigkeiten, einschließlich Bibliotheken, Binärdateien und Konfigurationsdateien. Sie migrieren als Einheit und überwinden so Rechnerunterschiede (einschließlich Betriebssystemund Basis-Hardware), die zu Inkompatibilitäten und Abstürzen führen. Container erleichtern auch die Bereitstellung von Software auf dem Server.

Containerisierte Microservice-Architekturen haben die Art und Weise, wie Entwicklungs- und Betriebsteams moderne Software testen und einsetzen, grundlegend verändert. Container helfen Unternehmen bei der Modernisierung, indem sie die Skalierung und Bereitstellung von Anwendungen erleichtern. Indem sie ein völlig neues Infrastruktur-Ökosystem geschaffen haben, haben Container aber auch neue Herausforderungen und Komplexitäten mitgebracht.

Große und kleine Softwareunternehmen geben tagtäglich Tausendevon Containern auf, so dass die zu bewältigenden Mengen Schwierigkeiten bereiten.Das ist der Grund, warum sie Kubernetes verwenden.

Warum Kubernetes?

Kubernetes wurde ursprünglich von Google entwickelt und ist, wie bereits erwähnt, eine Open-Source-Container-Orchestrierungsplattform, die die Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen automatisieren soll. Definitiv kann man sagen, dass sich Kubernetes als Standard für die Containerorchestrierung etabliert hat und das Großprojekt der Cloud Native Computing Foundation (CNCF) ist. Kubernetes wird von den bekanntesten Unternehmen der IT-Branche wie Google, Microsoft, IBM, AWS, Cisco, Intel und Red Hat unterstützt.

Hier sind die 4 wichtigsten Gründe, warum immer mehr Unternehmen Kubernetes einsetzen:

  1. Kubernetes ist besonders effizient und reduziert Kosten.

Kubernetes und Container ermöglichen eine viel bessere Nutzung von Ressourcen im Vergleich zu Hypervisoren und VMs, da die Container ein geringeres Gewicht als VMs haben und weniger Speicher, CPU und andere Ressourcen für den Betrieb benötigen.

  1. Kubernetes ist gut mit der Cloud kompatibel.

Kubernetes läuft auf der Google Cloud Plattform (GCP), Amazon Web Services (AVS), Microsoft Azure und kann auch lokal ausgeführt werden. Lasten können bewegt werden, ohne dass Anwendungen neugestaltet oder die Infrastruktur komplett überarbeitet werden muss. Es ermöglicht die Standardisierung auf der Plattform und vermeidet die Sperrung durch Anbieter.

  1. Ihr Cloud-Anbieter verwaltet Kubernetes für Sie.

Große Cloud-Service-Anbieter bieten zahlreiche Kubernetes-as-a-Service Angebote an. Google Cloud Kubernetes Engine, Azure Kubernetes Service (AKS), Amazon EKS, Red Hat OpenShift und IBM Cloud Kubernetes Service verwalten die Kubernetes-Plattform vollständig, so dass Sie sich auf das konzentrieren können, was für Sie am wichtigsten ist – das Hochladen von Anwendungen, die Ihre Nutzer begeistern.

  1. Kubernetes hilft dabei, schneller zu werden und das Unternehmen wachsen zu lassen.

Kubernetes ermöglicht die Bereitstellung einer Self-Service-Plattform als Service (PaaS), die eine Abstraktion der Hardware-Schicht für Entwickler-Teams schafft. Die Teams können schnell und effizient die benötigten Ressourcen anfordern. Brauchen sie mehr Ressourcen, um mit dem zusätzlichen Arbeitsaufwand fertig zu werden, können sie diese kurzfristig erhalten, da sie aus der Infrastruktur stammen, die von allen Teams gemeinsam genutzt wird.

 

Wie funktioniert Kubernetes?

Kubernetes vereinfacht die Nutzung und Handhabung von Anwendungen in einer Microservices-Architektur erheblich. Dies geschieht durch die Schaffung einer Abstraktionsschicht über der Hostgruppe, so dass Entwicklungsteams ihre Anwendungen einsetzen und Kubernetes alle wichtigen Prozesse verwalten lassen.

Die von Kubernetes verwalteten Prozesse sind:

  • Übertragung einer Anwendungsinstanz von einem Host auf einen anderen, wenn es an Ressourcen mangelt oder wenn der Host stirbt.
  • Überwachung des Ressourcenverbrauchs und Ressourcenbegrenzung, um automatisch zu verhindern, dass Anwendungen zu viele Ressourcen verbrauchen und die Anwendungen erneut starten.
  • Automatische Nutzung zusätzlicher Ressourcen, die zur Verfügung gestellt werden, wenn ein neuer Host zum Cluster hinzugefügt wird.
  • Gleichmäßige Verteilung der Anwendungslast auf die gesamte Host-Infrastruktur.
  • Kontrolle des Ressourcenverbrauchs durch das Team oder die Anwendung.
  • Einfache Durchführung von Rollbacks und Canary-Deployments
TAAS - BieneIT

Technology-as-a-Service

Was ist Technology-as-a-Service?

Technology-as-a-Service bietet eine große Chance für Lieferanten und deren Kunden, die sich auf ihre Dienstleistungen verlassen. TaaS ermöglicht es Kunden, bei Bedarf auf bestimmte Technologien zuzugreifen. Anstatt in große technologische Ressourcen zu investieren, die bald nicht mehr aktuell sind und hohen Investitionsaufwand erfordern, erwirbt das Unternehmen Zugriff auf technologische Mittel, die dem aktuellen Bedürfnis entsprechen. Wenn sich der Bedarfslage ändert, kann der Umfang je nach Bedarf reduziert oder eingeschränkt werden.

Es ist bekannt, dass Unternehmen Mühe haben die Zeit zu finden und den Aufwand zu betreiben, der für die Bereitstellung, Verwaltung und Wartung ihrer IT-Infrastruktur, ihrer Geräte und Software im gesamten Unternehmen erforderlich ist. Ältere Geräte, die die Arbeitslast der Benutzer nicht bewältigen können und auch neue, ressourcenintensive Software, wirken sich auch auf die Kosten für den Support und auf die Servicegeschwindigkeit aus.

Wie kann man sich TaaS am besten vorstellen? Es ist in etwa so, wie ein Auto zu mieten. Benzin, Öl, Service, etc. sind dabei inklusive und alljährlich erhält man ein verbessertes Modell! Es ist ein einfaches, flexibles Abonnement für alle technologischen Anforderungen – kombiniert spart man bis zu 30% der Gesamtbetriebskosten der Hard- und Softwarelösungen.

Mit Technology-as-a-Service (TaaS) ist es möglich Hardware, Software und eine Reihe von Dienstleistungen (etwa Nutzung, Schulung, Support und Gerätemanagement) im Rahmen eines einzigen Vertrages zu erwerben. Mit neuester zur Verfügung gestellter High-End-Hardware, sowie den effizientesten Softwarelösungen werden nicht nur die Support-Kosten, sondern auch Zeit und Geld gespart.

Aufgrund der Zeit- und Ressourcenersparnis können sich TaaS-Nutzer auf andere Bereiche des Unternehmens konzentrieren. Auch wissen sie genau, wie viel sie pro Quartal ausgeben und können ihr Budget entsprechend planen. TaaS reduziert finanzielle Hürden für den Zugang zu neuen Installationen und ermöglicht eine häufige Aktualisierung des Geräts. Außerdem eine Flexibilität und Skalierbarkeit, die der traditionelle Einkauf so nicht bietet. Anstatt Zeit damit zu vergeuden, Softwareinstallationen zu verwalten, alte Softwareversionen zu aktualisieren und Updates zu überwachen, können sich die Mitarbeiter auf andere Kerngeschäftsbereiche konzentrieren.

TaaS Vorteile für Unternehmen

Immer mehr Unternehmen nutzen die Weiterentwicklung der Technologien, die TaaS ermöglicht. Verbesserungen sind beispielsweise nahezu flächendeckendes Breitband, einfach zu zahlende Lösungen, kostengünstige Speicherlösungen, Mikroservices, Containerisierung und wachsende Akzeptanz bei Verbrauchern und führenden Unternehmen im Bereich der Abo-Dienste.

Zusammengenommen schaffen diese Entwicklungen eine Ökosystemtechnologie, bei der Software, Plattformen und Services aus Büroräumen in eigene Rechenzentren und die Cloud verlagert werden.
Zusätzlich zum Erwerb von TaaS sollte ein Unternehmen, das über ein Technologieprodukt verfügt, die Verlagerung von Technologie in die Cloud (cloud-as-a-service) in Betracht ziehen. Das Kundenverhalten ändert sich. Kunden investieren weniger in materielle Werte und nicht handelsübliche Softwareprodukte. Heute wollen sie mehr denn je Technologie-Dienstleistungen, die ihnen eine Nutzung mit niedrigen Einstiegskosten ermöglichen.

Und da sich das Kundenverhalten ändert, bestehen die Vorteile der Umstellung auf TaaS für Technologiehersteller nicht nur in der Möglichkeit, Funktionen hinzuzufügen und Benutzer automatisch auf die neueste Version zu aktualisieren, sondern auch laufende Einnahmen zu erzielen (was das Geschäft planbarer macht), die Anzahl der zu unterstützten Produkte zu reduzieren und die Flexibilität und Skalierbarkeit zu erhöhen.

Die Zukunft von TaaS

Die große Dominanz verschiedener Dienstleistungen und schnellere Softwareinnovationen sind die beiden großen Trends, die alle Technologieunternehmen im nächsten Jahrzehnt prägen werden. Um ihren Geschäftserfolg fortzusetzen, benötigen hardwarebasierte Unternehmen Software- und Service-Transformationen und Innovationen. Eine solche Transformation erfordert neue Ansätze bei der Entwicklung, Bereitstellung, Vermarktung und Nutzung von Technologien. Dieser Ansatz, den wir Technology-as-a-Service (TaaS) nennen, ist die Zukunft für junge Technologiebranchen. Dieses Modell wurde bereits in der Computerindustrie eingeführt. Die heute erfolgreichsten Unternehmen in dieser Branche sind nicht mehr HP oder Microsoft, sondern Unternehmen wie Salesforce, Amazon und Google. Salesforce ist bekannt für den Erfolg von Software-as-a-Service (SaaS). Amazon hat sich zu einem Infrastructure Service (IaaS) entwickelt. Google hat seine Technologie immer als Service zur Verfügung gestellt und hat mehrere Enterprise Services (TaaS) auf den Markt gebracht.

Man könnte sagen, dass die Zukunft von TaaS in der proprietären Technologie liegt, die softwareunterstützt ist und als „Dienstleistungen“ angeboten wird. Im Gegensatz zur traditionellen Form der arbeitsbasierten Dienste sind TaaS-Dienste hochgradig Software-unterstützt, nach Bedarf abrufbar, anpassbar an den Geschäftskontext und werden oft virtuell von einem System aus Hardware, Software und Mitarbeitern bereitgestellt. Im Gegensatz zum traditionellen Produktmodell nutzt TaaS technologische Tools, um dynamische Funktionen bereitzustellen und Geschäftsprobleme in enger Zusammenarbeit mit den Kunden zu lösen. Das TaaS-basierte Geschäftsmodell nutzt Software zur Steigerung der funktionalen Vielseitigkeit und nutzt Ökosysteme, um die Wertschöpfung für den Kunden zu steigern.

Im Folgenden werden einige wichtige Merkmale aufgeführt, die TAAS von traditionellen Technologieprodukten und traditionellen Dienstleistungen unterscheidet:

  1. Exklusivität
    Traditionell deutet die Inanspruchnahme von Diensten, aber das Nichtbesitzen von Eigentum oft auf eine gemeinsame Nutzung und Verletzung der Privatsphäre hin. Beispielsweise sind die Druckdienste einiger Unternehmen geteilt und nicht privat. TaaS gibt den Kunden jedoch Exklusivität ohne Eigentum. Exklusiver Service ist ein Service, der in einer privaten und sicheren Umgebung angeboten wird, in der der Kunde die volle Kontrolle über die Funktionen hat, ohne andere Kunden zu stören.
  1. Softwaredefinierte Funktionen
    Herkömmliche hardwarebasierte Funktionen werden einmalig ab Werk festgelegt. Aus Kundensicht sind softwaredefinierte Technologiefunktionen erweiterbar und programmierbar, genauer gesagt, sie haben die Flexibilität, mehrere Zwecke zu erfüllen und funktionsübergreifende Prozesse zu schaffen.
  1. Eigentumserhaltung
    Die Dienstleistungen werden ohne vollständige Übertragung des Eigentums erbracht.
  1. Anpassungsfähigkeit
    Spezifische Dienstleistungen sind individuell auf die Kundenbedürfnisse zugeschnitten und können entsprechend angepasst werden.
  1. Bedarfsorientierung
    Bedarfsorientiert bedeutet, dass eine Ressource oder Funktion aktiviert und/oder reduziert werden kann, wenn die Geschäftssituation es erfordert.
  1. Transaktionsmodell auf Verbrauchsbasis
    Dienstleistungen werden nur bei tatsächlicher Nutzung in Rechnung gestellt.
  1. Virtuelle Bereitstellung
    TaaS-Dienste werden oft von einem System bereitgestellt, das aus Maschinen oder Geräten, Daten, Anwendungen, Personen und Prozessen besteht. Solche Einrichtungen sollten nach Möglichkeit von räumlichen Einschränkungen befreit werden.
  1. Im Kontext
    Im Unterschied zu traditionellen Technologieprodukten, die werksseitig festgelegte Formen und Funktionen haben, sollte TaaS Funktionalitäten bereitstellen, die zum Geschäftskontext passen und ihn prägen.
  1. Modular
    Modular bedeutet, dass eine Komponente oder Funktion unabhängig von standardisierten Schnittstellen ist, so dass sie zum Aufbau von unterschiedlichen Systemen oder zur Ausführung verschiedener Prozesse verwendet werden kann.

Im nächsten Jahrzehnt wird sich TaaS zum dominierenden Modell der Technologiekommerzialisierung entwickeln. Nehmen wir das Beispiel von Apple, das sein Geschäft und damit unmittelbar die Branche verändert hat, indem es Geräte wie iPhones und iPads in personalisierte Service-Center verwandelt hat, die von Technologiesystemen und Geschäftsökosystemen unterstützt werden. Neue Technologien wie Solar- und 3D-Druck wählen TaaS-Modelle zum Verkauf. Etablierte Technologieunternehmen wie GE und Siemens setzen die Überwachungs- und Diagnosetechnik in Dienstleistungen um.

Fazit

TaaS erfordert einen strategischen Wandel, der sorgfältig geplant und durchgeführt werden muss. Der Grund dafür ist, dass TaaS eine Reihe von technischen, kommerziellen und operativen Fähigkeiten voraussetzt, die für produktbasierte Technologieunternehmen oft neu sein dürften. Ein dreistufiger Prozess, beginnend mit „asset-based services“ über „feature-based services“ bis hin zu „business-defined services“, ermöglicht es dem Unternehmen, Fähigkeiten entsprechend dem erfolgreichen TaaS-Modell schrittweise aufzubauen. Dabei werden die Unternehmen, die diesen Übergang vorantreiben, zukünftigen Wohlstand für Branchen und Unternehmen schaffen.

Cloud Services - BieneIT

Cloud Services

Was ist Cloud?

Was ist die Cloud? Wo ist die Cloud? Benutze ich die Cloud bereits? Das sind nur einige Fragen, die Sie bisher gehört oder sich selbst gestellt haben. Kurzgesagt ist „Cloud“ ein kommerzieller Name und eine Metapher für das Internet. Und daher, ja, die meisten Leute nutzen bereits einen cloudbasierten Service, ohne es zu wissen. Grundsätzlich kann der Cloud-Service als verschiedene Mailsysteme, wie Gmail, Hotmail, Yahoo Mail, als Speicheranwendungen wie Dropbox, SkyDrive und andere betrachtet werden. Voraussetzung für die Nutzung des Cloud-Dienstes ist, dass man über ein geeignetes Gerät (Smartphone, Tablet, Computer) und Internetzugang verfügt.

Cloud bedeutet, dass Daten nicht lokal auf Ihrer Festplatte, sondern im Internet gespeichert werden. Aber es geht nicht nur um Daten, sondern auch um komplette Systeme, die da draußen in der Cloud sind. Das „da draußen“ befindet sich auf der Server-Infrastruktur eines Rechenzentrums. Dieser Ansatz hat viele Vorteile, die wir im Folgenden erläutern werden. Aber zunächst einmal sollte die Tatsache erwähnt werden, dass sich Fachleute um diese Infrastruktur kümmern, im Gegensatz zur Speicherung von Daten auf lokalen Computern oder Servern.