Zugegeben, der Titel klingt etwas widersprüchlich. Wozu (und vor allem wie) soll man eine Cloud-Infrastruktur integrieren? Nun, zunächst einmal entscheiden sich Unternehmen für eine Software-as-a-Service-(SaaS)-Lösung bekanntlich aus einem oder mehreren Gründen:
- Reduktion der Gesamtkosten (Total Cost of Ownership) über den kompletten Lebenszyklus der eingesetzten Lösung
- Schnellere Einsatzfähigkeit der Software und geringere Einführungshürden (Zeitfaktor)
- Geringerer Investitionsaufwand in Infrastruktur (Kapitalbindung)
- Profitieren von kontinuierlichen Upgrades
- Geringere bis gar keine Kopplung an eigene Infrastruktur notwendig (technologische Bindung)
- Sicherheit bei Wartung/Betrieb der Lösung („One-to-many“-Ansatz) für jeden einzelnen Kunden durch die Partizipation einer Vielzahl von Teilnehmer auf derselben Plattform. Der Cloud-Anbieter bzw. -Betreiber muss hier also mit besonderer Sorgfalt agieren, um Havarien zu vermeiden.
Die beiden letztgenannten Punkte werden jedoch häufig auch als Argumente gegen eine entsprechende Cloud-Lösung ins Feld geführt: Zum einen steigt der Nutzen und die praktische Anwendbarkeit einer Content-Management-(CM)-SaaS-Lösung erst in dem Maße, mit dem bestehende, bereits gelebte Dokumentenprozesse an diese Lösung ankoppeln oder sie sogar „integrieren“.
Als erfahrener Software-Anbieter, der erfolgreich in beiden Welten – Cloud sowie On-Premises – unterwegs ist, haben wir uns dieser Themen angenommen. Dazu wurde der Cloud Connector als standardisiertes Schnittstellenwerkzeug konzipiert und umgesetzt.
Grundlegende Ziele und Rahmenbedingungen des Cloud Connectors
- Umsetzen von Monitoring- und Clearingfunktionen für den Kunden/Dienstleister: Darauf aufbauend soll für den fachlichen Administrator ersichtlich sein, ob es beim Import von Daten oder Dokumenten zu Problemen kam. Weiterhin ist eine Übersicht/Clearing-Möglichkeit über unvollständig übertragene Dokumente sowie Daten wünschenswert.
- Schaffung von Barcode-Szenarien (bislang nur On-Premises verfügbar) für die Cloud: Cloud-Kunden hatten bis dato keine Möglichkeit, Dokumente per Barcode zuzuordnen. Das betrifft vor allem folgende Szenarien:
- forpeople/forcontract: Rückläufer aus der Dokumenterstellung. Diese Rückläufer werden als neue Version zum bereits abgelegten Dokument hinzugefügt, dies ist heute nur über die Document Pipeline möglich. Diese ist jedoch für Cloud-Kunden nicht nutzbar.
- forcontract: Zuordnung über „offene Barcodes“. Auch für dieses Szenario ist die Document Pipeline erforderlich.
Der Cloud Connector wird eine entsprechende Barcode-Erkennung „Out-of-the-box“ bieten.
- Verbesserung von (Massen-)Uploads von Dokumenten in die Cloud
Unsere Cloud-Kunden haben für Einschleusprozesse von Dokumenten und Metadaten bereits mehrere Schnittstellentools im Einsatz. Diese Tools übertragen die Dokumente direkt in die Cloud-Instanz, wobei momentan verschiedene Probleme existieren:
- Die Verfolgung von Fehlern ist schwierig. Die Programme schreiben zwar Protokolle, die jedoch nicht einheitlich abrufbar sind. Nicht interpretierbare Fehlermeldung sind hinderlich für das Einleiten entsprechender Korrekturmaßnahmen und können sogar dazu führen, dass notwendige Programmteile in den Kundensystemen dann „aus Sicherheitsgründen“ ausgeplant werden.
- Dasselbe betrifft fehlerhaft übertragene Daten/Dokumente, z. B. Personalakten, für die in forpeople die Entsprechung für einen neuen Buchungskreis fehlt.
- Sensible Dokumente sollten für die Übertragungsprozesse nicht unnötig lange auf ggf. unsicheren (temporären) Verzeichnissen innerhalb der lokalen Kundeninfrastruktur vorliegen. Hier soll ein zügiges Sammeln von Dokumenten in einer sicheren Ablage erfolgen.
Kurzum, die liefernden Anwendungen beim Kunden sollen die Daten und Dokumente schnell und ohne Berücksichtigung von fachlichen Fehlersituationen loswerden. Die Verarbeitung, Übertragung in die Cloud sowie die Fehlerbehandlung wird dann asynchron erfolgen. Bis dahin liegen die Dokumente sicher und verschlüsselt in einer lokalen temporären Ablage.
- Hosting mit minimaler Verflechtung in Kundeninfrastruktur
Der Connector selbst soll minimalste Anforderungen an Hosting und Betrieb stellen. Dazu bedienen wir uns aus unserem reichhaltigen Portfolio an bewährten Architekturkomponenten – dem forprocess-Baukasten – der bereits mehr als 20 Jahre erfolgreich bei der Umsetzung von Individuallösungen zum Einsatz kommt:
- forcont-eigenes Archiv FX-Storage
- forcont-eigene HSQL-Datenbank
- forcont-eigene Nutzerverwaltung
- forcont-eigene Jobsteuerung
- forcont-eigene WebService-Schnittstelle
- forcont-eigenes Frontend für Monitoring/Validierung/Clearing sowie Konfiguration (z. B. Barcodeerkennungsprofile) und Nutzeradministration
Grundlegende Arbeitsweise
Das Funktionsprinzip des Cloud Connectors lässt sich relativ einfach darstellen. Ein exemplarischer forcont-Cloud-Kunde hat z. B. unsere Personalaktenlösung forpeople im Einsatz. Es gibt im Unternehmen dabei eine Reihe von internen Dokumentenprozessen, die entsprechende Mengen an Personaldokumenten generieren. Diese stammen beispielsweise:
- Aus der (Massen-)Digitalisierung von Altbeständen, geliefert von Scandienstleistern. Diese sollen in die Cloud „migriert“ werden.
- Aus dem laufenden Kundenbetrieb in Form von Postkorbsendungen oder Scandokumenten.
- Aus der Saas-Anwendung forpeople selbst, die in der Lage ist, Dokumente zu erstellen und mit Barcodes zu versehen. Diese Dokumente werden dann später zurückgeführt und automatisiert zugeordnet.
Die obige Liste bezieht sich auf Beispielszenarien, die der Cloud Connector bereits heute abdeckt bzw. zukünftig abdecken wird. In einem ersten Schritt werden die Dokumente aus den verschiedenen Eingangskanälen (z. B. diverse Übergabeverzeichnisse) mittels Jobsteuerung in kurzer Taktung gesammelt. Dabei wird für die Barcodedokumente eine entsprechende Erkennung ohne Zwischenschaltung einer Drittsoftware oder eines Drittdienstleisters durchgeführt. Abhängig vom eingestellten Validierungsgrad wird nun die Dokument- und Datenablage oder ggf. auch eine Fehlerbehandlung vorgenommen. Als Ergebnis liegen die Dokumente verschlüsselt im forcont-eigenem Archiv, die relevanten Metadaten sind automatisiert erfasst und bei Bedarf einsehbar.
Nach erfolgter Validierung (je Einstellung manuell bzw. auch vollautomatisch möglich) wird im Positivfall die Einschleusung, also das „Hochladen“ in die Cloud-Infrastruktur, vorgenommen. Der gesamte Prozess wird entsprechend protokolliert. Somit ist jederzeit ersichtlich: welche Dokumente wann, wie, aus welchem Grund und mit welchem Ergebnis behandelt wurden.
Features
- Zertifiziertes forcont-eigenes Archiv FX-Storage für verschlüsselte Zwischenspeicherung von Dokumenten
- Mitgelieferte forcont-eigene HSQL-Datenbank
- Mitgeliefertes forcont-eigenes Usermanagement
- Umfangreiche, forcont-eigene Taskverwaltung und -steuerung
- Ansteuerung aller forcont-Cloud-Produkte möglich
- Unterstützung mehrerer Mandanten
- Moduswahl für mehrere Betriebsarten, die einen einfachen Pilotierungsbetrieb ermöglichen
- Oberfläche zur Nutzer- und Rollenverwaltung für Administratoren
- Berücksichtigung von Priorisierungsgraden verschiedener Szenarien und Regelung von zeitlichen Abläufen der Importe
- Durchgängige Protokollierung der Einschleusprozesse
- Automatisierte Bereinigungsfunktion unter Berücksichtigung von Faktoren wie Verweildauer und Backup von Protokollen
- Validierungsfunktionen
- Verschiedene Modi werden unterstützt (ohne Validierung, restriktive Validierung, Validierung im Fehlerfall)
- Oberfläche zur Daten- und Dokumentadministration, sowie Dokumentfreigabe bzw. -ablehnung
- Barcodeerkennung und -profilierung ohne Einsatz von Drittprodukten
- Verschiedene Barcodetypen (z. B. QR-Code, CODABAR, CODE_128, CODE_39….)
- Anwendung parametrisierbarer Optimierungsmethoden(Drehung, Weichzeichner, Kontrast usw.)
- Diverse Einstellungsmöglichkeit über die Administrationsoberfläche des Cloud Connectors
Ausblick
Nach der forcont-internen Pilotierung und dem Release Anfang 2017, wird der Cloud Connector zeitnah im Kundenumfeld zum Einsatz kommen. Damit werden wir unser Portfolio im SaaS-Umfeld hinsichtlich Stabilität, sowie dem Maß an Integrität und Datensicherheit, weiter ausbauen können. Eine kontinuierliche Weiterentwicklung ist natürlich bereits in Planung.