Migration – eine neue Heimat für den Content

Edgar Hellfritsch

Edgar Hellfritsch

Daten und Content: Ein Schatz, den wir im Lauf der Jahre mühsam aufgebaut haben. Und der zum Problem wird, wenn wir uns zum Beispiel entscheiden von der altgedienten Textverarbeitung (z. B. Word oder FrameMaker) auf ein Content-Management-System umzusteigen. Seltene Aufgabe, die aber doch immer wieder zu erledigen ist, wenn ein Systemumstieg ansteht. Wir haben mit Edgar Hellfritsch geredet. Er beschäftigt sich seit über zwanzig Jahren mit der Frage, wie man Daten und Content am besten migriert und hat über hundert Migrationsprojekte geleitet. In diesem Interview schildert er uns seine Erfahrungen.

doctima: Edgar, wie sieht denn das typische Migrationsprojekt aus?

Jedes Projekt ist irgendwie natürlich wieder anders. Aber grundsätzlich kann man sagen: Ein typisches Migrationsprojekt hat etwa 10.000 Seiten DIN A4, die in etwa 30 Sprachen vorliegen. Migriert wird meistens von einem layout-orientierten Textverarbeitungssystem in ein strukturiertes Format, also ein CMS oder xml-basierte Standards wie DITA. Letzten Endes kommt aber alles vor. Wir hatten auch schon Fälle wo wir DITA nach DITA migriert haben, weil zwei Unternehmensteile sich für einen gemeinsamen Standard entschieden haben.

doctima: Und wie geht man dabei vor?

Grundsätzlich muss man sich entscheiden, ob der Content schrittweise nach und nach migriert werden soll oder zu einem Stichtag in einer großen Hauruck-Aktion. Welches Vorgehen da sinnvoll ist, lässt sich nicht pauschal sagen. Das hängt von der Gesamtdatenmenge, vom Vernetzungsgrad des Contents, von den Redaktions- und Freigabeprozessen und natürlich von der Terminplanung für den Produktionsstart im neuen System ab.

Nach und nach zu migrieren erscheint auf den ersten Blick oft erst einmal wünschenswerter. Altdaten können fallweise auch einmal unmigriert bleiben, der Aufwand ist überschaubarer und die ersten Erfolgserlebnisse sind schnell vorhanden. Aber: Nach und nach zu migrieren bedeutet einen deutlichen Mehraufwand, denn beide Systeme müssen über einen längeren Zeitraum weiterbetreut werden. Und wenn die Redaktion diesen Mehraufwand personell nicht leisten kann, kommt es im schlimmsten Fall dazu, dass die (produktive) Systemeinführung sich so lange verzögert, bis sie komplett scheitert.

Und dann gibt es noch eine Fülle weitere Entscheidungen: intern oder extern, automatisiert oder manuell und, und, und. Jede dieser Entscheidungen hat ihr eigenes Für und Wider. Aber ich glaube das würde jetzt zu weit führen, wenn ich da im Detail darauf eingehe.

doctima: Übernimmt so eine Migration der Systemhersteller?

In den seltensten Fällen. Denn Migration bedeutet eine ganz eigene Art von Expertise, bei der man Ausgangsformat und Endformat genau im Blick haben muss. Auf dem Weg gibt es dabei einige Tücken, die für Systemhersteller schwer zu kalkulieren sind. Im Normalfall ist es hier besser, sich einen Dienstleister ins Boot zu holen, der auf Migrationsprojekte spezialisiert ist.

doctima: Welche Formate sind denn besonders schwer zu migrieren?

Wahrscheinlich erwarten jetzt viele als Antwort: Word! Das ist aber gar nicht so. Denn das Problem liegt nicht so sehr im Format selbst, sondern eher darin, wie strukturiert die Redakteure gearbeitet haben und wie konsequent sie ihre Standards eingehalten haben. Da sind mir Word-Dokumente, bei denen sauber mit Formatvorlagen gearbeitet wurde, tausendmal lieber als Dokumente, bei denen die Redakteure versucht haben, mit XML zu layouten.

Umgekehrt kann eine scheinbar einfache Anforderung, wie DITA nach DITA zu migrieren, sich im Projektverlauf als extrem heikel erweisen, wenn z. B. Metadaten zur Steuerung des Publikationsprozesses verwendet wurden oder eben semantische Strukturen missbraucht wurden, um ein bestimmtes Erscheinungsbild zu erzeugen. Da werden dann Informationssequenzen als Bildbeschriftung getaggt, weil man das Ganze gerne in einer Box darstellen will. Für die Migration ist so etwas ein Desaster.

doctima: Ein Erfolgserlebnis?

Für unsere Kunden ist der größte Erfolg wohl immer, wenn sie sehen, wie schnell ein Großteil des Contents migriert ist. Als derjenige, der sich um die Umsetzung kümmert, sind die ERfolge für mich aber oft eher die Kleinigkeiten am Rande. Vor einiger Zeit ist es mir z. B. in einem Projekt gelungen, komplexe Tabellen automatisiert von CALS nach HTML und wieder zurück umzuwandeln. Der Weg von CALS nach HTML ist mehr oder weniger trivial. Der Weg zurück ist aber ziemlich trickreich, weil das CALS-Tabellenmodell – na sagen wir mal – „originell“ ist. Da muss man sich letzten Endes jede Tabellenzelle einzeln angesehen haben, bevor man die Tabelle zusammenbauen kann. Für den Laien ist das dann nicht weiter spektakulär, wenn am Ende alles klappt. Aber als Spezialist ist man da schon ein wenig stolz.

doctima: Zum Abschluss: Was würdest du jemandem für die Migration raten,  bevor er einen Systemumstieg plant?

Sich neben dem Dokumentbestand auch den Redaktionsprozess vorher genau anzusehen und sich im Zweifelsfall Hilfe von außen zu suchen.  Ohne Bestandsanalyse kann man sonst manche böse Überraschung erleben, weil zum Beispiel im Publikationsprozess Makros nachträglich noch den Content verändern. Generell ist es sinnvoll sich anzusehen, welche Strukturen im Content vorhanden sind und welche davon erhalten bleiben müssen. Wir haben dazu automatisierte Verfahren mit denen wir Bestands-Content analysieren. Da stellt sich dann eigentlich meistens heraus, dass es eine ganze Reihe von Dokumentstrukturen gibt, die bei 10.000 Seiten vielleicht nur drei oder vier Mal vorkommen. Und da sollte man sich dann schon fragen, ob es sich lohnt, das auch im Zielsystem abzubilden.

doctima: Danke für das spannende Interview.

Gerne.

 

Information 4.0 – Schritte auf dem Weg zur Intelligenten Information

Industrielle Steuerung?Die Digitalisierung der Arbeitswelt ist derzeit eines der meist diskutierten Themen. Auch unserer Branche, der Technischen Dokumentation, stehen tief greifende Veränderungen bevor.
Seit Anfang 2016 bin ich Mitglied der tekom-AG „Information 4.0“ und gestalte dadurch diese Veränderungen mit. In der AG arbeiten wir iiRDS aus, einen Standard zur Bereitstellung von intelligenter Information in digitalisierten, vernetzten Umgebungen. Mit diesem Beitrag fasse ich einige meiner Gedanken zum Thema Industrie 4.0 und intelligente Information zusammen.

Einige Begriffe

  • Industrie 4.0, digitale Fabrik: Sich selbst steuernde, weitestgehend automatisierte Fertigungsprozesse, die der Mensch nur noch „orchestriert“ und bei Bedarf eingreift.
  • Cyberphysikalisches System: Komponente, die aus einem dinglichen Objekt und aus einer digitalen, vernetzten Repräsentation besteht.
  • RAMI 4.0: dreidimensionales Referenzarchitekturmodell der Plattform Industrie 4.0. Strukturiert das Thema nach Lebenszklus von Entwurf bis Entsorgung, Hierarchie von Einzelkomponente bis zur umgebenden Cloud und nach Integrationslevel von Objekt („Asset“) bis Geschäftsmodell („Business“).
  • Verwaltungsschale: Digitale Repräsentation eines cyberphysikalischen Systems. Enthält beschreibende und identifizierende Eigenschaften, Sensordaten und Zugriffsmöglichkeiten zu digitalen Funktionen.

Technische Dokumentation heute

Für die meisten Akteure im Umfeld Industrie 4.0 findet Technische Dokumentation auf dem sog. „Asset Level“ in der digitalen Fabrik statt. Sie gehen gedanklich vom aktuellen Status Quo (oder eigentlich von dem Stand vor zehn Jahren) aus, und der heißt PDF. Dokumente für Installation, Wartung, Betrieb und ggf. Entsorgung werden als Einheiten betrachtet und als abrufbare Eigenschaften in der Verwaltungsschale eingeplant.

Auf diese Granularität zielt wohl auch die in Arbeit befindliche VDI-Richtlinie 2770 zur digitalen Herstellerinformation ab. Für einige Branchen (gerade ältere Industrieanlagen sind in der Regel auf Papier dokumentiert) ist das auch sicher ein Fortschritt. Aber natürlich geht viel mehr.

Intelligente Information

Technische Dokumentation lässt sich viel präziser modularisieren. In vielen Redaktionen wird das bereits heute betrieben, v. a. als Basis des Variantenmanagements: Die Filterung nach Zielgruppen, Sprachen, Gerätevarianten findet heute bereits statt und zwar beim Publizieren von Dokumentvarianten.

In einer Industrie-4.0-Umgebung lässt sich diese Filterung zum Lesezeitpunkt hin verlagern. Damit werden gezielte Abfragen möglich, die dem Anwender die von ihm benötigte Information passend zu seiner aktuellen Aufgabe bereitstellen.

Dazu werden Metadaten benötigt, die die einzelnen Informationsmodule klassifizieren und identifizieren. Zuordnung zu Hersteller, Gerät, Variante, Komponente und Funktionsgruppe sind ebenso entscheidend wie Sprache, Zielgruppe und Informationstyp. Außerdem erfordert die Integration ein Auslieferungsformat, das sich embedded, mobil und am Schreibtisch sauber anzeigen lässt. Standardisierung ist nötig, damit sich die Dokumentation unterschiedlicher Hersteller zu einer Gesamtinformation integrieren lässt.

Bei der tekom arbeiten wir an einem solchen Standard, dem iiRDS. Die Arbeitsgruppe hat ihre Zwischenergebnisse auf der tekom-Jahrestagung vorgestellt. Der Standard soll Mitte nächsten Jahres verfügbar sein.

Wo am Ende die Informationen bereitgestellt werden, ob direkt beim Komponentenhersteller, beim Anlagenbauer, vor Ort beim Betreiber der digitalen Fabrik oder direkt auf der Komponente, ist dabei offen. Ebenso ist offen, ob die Information auf einem eigenen Content Delivery Server, einem integrierten Webservice (der zum Beispiel über den doctima ContentConnect mit Inhalten versorgt wird) oder als Informationsbausteine in einem Asset Management System wie SAP AIN zu liegen kommen. Das abstrakte Konzept der Verwaltungsschale erlaubt hier viele Wege zu gehen.

Die Idee, dass alle (bleiben wir realistisch: möglichst viele) Ersteller von Technischer Information ein gemeinsames Format bereitstellen, um dem Anwender einen integrierten Wissensschatz zu einem aus vielen Komponenten bestehenden System bereitzustellen, erscheint mir auch ohne den direkten Bezug zu Industrie 4.0 ein absolut erstrebenswertes Ziel zu sein – weil es u. a. zu Verbesserungen für das leidige Thema Zulieferdokumentation bringen kann. In der Denkweise des RAMI 4.0 lässt sich die Dokumentation von der untersten Ebene mit PDF-Dokumenten als „Assets“ auf die vierte Ebene, das Information Layer, mit Content-Delivery-Diensten als funktionaler Teil der übergreifenden Verwaltungsschale aufwerten.

Ich bin sehr gespannt auf die kommenden Entwicklungen und wie sich das iiRDS-Format in der Praxis bewähren wird – und auf Ihre Meinung. Wie sind Ihre Erwartungen bezüglich der Digitalisierung der Arbeitswelt? Diskutieren Sie mit uns in den Kommentaren!

#4.0, die tekom-Jahrestagung 2016

img_9629Information 4.0, Dokumentation 4.0, Industrie 4.0, #4.0. Überall versucht man neue und innovative Wege zu gehen, so auch in der Branche der Technischen Kommunikation und Technischen Dokumentation. Unser Rückblick auf die tekom-Jahrestagung 2016.

Markus Nickl

P1080459-SWtekom Herbsttagung 2016. Für mich ein besonderes Datum. Denn wenn ich richtig rechne, dann ist es genau 20 Jahre her, dass ich auf meiner ersten „tekom“ war – damals in Berlin mit einem eigenen Vortrag über historische Gebrauchsanleitungen. Seitdem hat sich eine Menge getan. Besonders die Dimensionen, die die begleitende Messe angenommen hat, hätte ich mir damals nicht vorstellen können. Und die Internationalisierung der Veranstaltung ist ebenfalls beeindruckend. An nur einem Messetag habe ich (unter anderem und nur so als Beispiel) mit einem ungarischen Übersetzer, einer chinesischen Expertin für Simplified English, einem niederländischen Industriedesigner und einem US-amerikanischen Marketingexperten gesprochen. Das hätte ich mir damals vor zwanzig Jahren nie träumen lassen. Toll welchen Weg die tekom in dieser Zeit genommen hat. Ach ja, aus guter Tradition war ich auch diesmal wieder mit einem Vortrag dabei: „SEO – Technische Dokumentation für die Suchmaschine“.  Wen’s interessiert, der kann mehr dazu im Parson-Blog lesen.

Edgar Hellfritsch

rp_P1090805_SW-e1447767838366.jpgDieses Jahr bin ich kaum dazu gekommen, meiner Rolle als Tagungsbeirat gerecht zu werden und möglichst viele Vorträge zu besuchen. Die Vorträge, die ich mitbekommen habe, waren v. a. die, an denen ich selbst beteiligt war: Den „Showcase Mobile Dokumentation“ habe ich mit moderiert. Alle sechs Vorträge waren interessant und von durchgängig hohem Niveau. Die vielen Gespräche, die ich an unserem Stand mit Besuchern gerade zu diesem Thema geführt habe, zeigen mir, dass die mobile Bereitstellung von Inhalten langsam die Bedeutung gewinnt, die ich ihr zuschreibe. Mein anderes Thema dieses Jahr war Information 4.0 und mit ihm der Standard iiRDS, an dem ich mitarbeiten darf. Hier haben mich vor allem die Prototypen der Systemhersteller beeindruckt, die bereits sehr schön das Nutzpotenzial des in Arbeit befindlichen Bereitstellungsstandards gezeigt haben.

Johannes Dreikorn

p1090631-b-hoch-swDrei Tage tekom-Tagung – das sind drei Tage intensivsten Austauschs. Das war eigentlich schon immer so, aber dieses Jahr habe ich das besonders stark empfunden. Ganz sicher deswegen, weil ich die vollen drei Tage an unserem Stand präsent war. Der Blick auf meine Notizen macht mir noch einmal deutlich, wie viel spannende Gespräche auf unserem „grünen Teppich“ stattgefunden haben mit Kunden, Interessenten und Job-Bewerbern. Dabei durfte ich auch mein Lieblingskind, das ContentRuleset, mehrmals vorführen.
Intensiver Austausch auch in den beiden Workshops, die ich gehalten habe. Mit der Textsorte Checklisten ein Thema ganz aus der Praxis, eine herausfordernde Aufgabenstellung – und das mit 30 motivierten Teilnehmern durcharbeiten. Ich liebe diese angeregte Arbeitsatmosphäre einfach. Und dann all die Begegnungen am Rande – ein Gespräch beim Mittagessen mit jemand bis dato ganz Unbekannten, ein Plausch unter langjährigen Weggefährten. Eins ist klar: tekom-Jahrestagung auch nächstes Jahr wieder mit mir – und wieder volle drei Tage.

Christian Hammer

P1090233-SWStuttgart Anfang November? Na klar – tekom-Tagung! In diesem Jahr kann ich Tagung für mich getrost durch Messe ersetzen. Ich habe es zum ersten Mal in nicht einen einzigen Vortrag geschafft. Nicht, weil ich die große Nähe zu unserem Hallen-Nachbarn der Kaffee-Insel nicht aufgeben wollte, sondern weil wir eigentlich immer Interessenten und Interessante am Stand hatten.
Hier nochmal ein großes Lob an unseren Ober-Location-Scout Benny Rauschenberger. Auch dieses Jahr waren unsere 20 Quadratmeter doctima wieder sehr gut in Halle 1 aufgehoben. Abseits des Gedränges und der Hektik der größeren Halle 2 hatten wir die richtige Atmosphäre für persönliche und konstruktive Gespräche, die sich teilweise schon fast zu kleinen Workshops entwickelten.
Am schönsten finde ich es immer zu sehen, dass unsere Kunden einen Besuch bei uns am Stand nicht als lästigen Pflichttermin wahrnehmen, sondern sich darauf freuen. So waren viele immer mal wieder bei uns, um ein kleines Pläuschchen  zu halten oder auch um sich mit anderen Besuchern auszutauschen. Unsere Kunden fühlen sich also wohl bei uns. Gut so!

Daniel Rieß

danielDie tekom-Jahrestagung ist im Hause doctima seit jeher ein wichtiges Thema, um das ich die letzten Jahre kaum herumkam, auch wenn ich nicht vor Ort war. Das sollte sich 2016 ändern, denn nun war ich ebenfalls stolzer Besitzer eines Tickets und hatte die Möglichkeit Mittwoch und Donnerstag auf der Messe mitzuerleben.
Nach dem Einlass fand ich den doctima-Stand nach wenigen Minuten, der unter anderem durch den 3D-Drucker auffiel, der zugleich Preis unserer Verlosung und Fabrik von personalisierten Legosteinen war, die die Standbesucher auf Anfrage drucken lassen konnten.
Doch ich musste gleich wieder los, denn der erste Vortrag wartete auf mich. Was auf den ersten Blick nach stressigem Hin und Her klingt, nahm ich vielmehr als kurzweilige Abwechslung zwischen innovativem fachlichem Input in den Vorträgen und tollen Gesprächen sowie interessanten Kontakten an unserem Stand wahr. So machte es mir nicht zuletzt großen Spaß, Menschen, mit denen ich sonst via Mail und Telefon zusammenarbeite, in Lebensgröße kennenzulernen.
Nein, es ging gerade nicht um 3D-Modelle, die durch eine AR-Brille unfassbar real dargestellt werden – das konnte ich aber dennoch am Ende von „Augmented Reality solution for delivering complex instructions“ (Andrew Head, Semcon) am Donnerstag ausprobieren. Weitere Highlights waren für mich die Umsetzung der AR-App bei SAF-Holland (Thomas Piroth, Tim Rausch) und die smarte Wartung einer Klimaanlage nach Industrie 4.0 (Jürgen Sapara, Thomas Gering). Kurz gesagt: Der Besuch der tekom-Jahrestagung 2016 hat sich voll und ganz gelohnt.

Benjamin Rauschenberger

P1080932-B-SWAls Vater des Messeauftritts von der Konzeption über die Organisation bis hin zum Einschwören der Kollegen war ich natürlich besonders unter Strom. Anreise mit Aufbau des Messestandes und dann drei Tage bangen, dass auch wirklich alles so klappt wie geplant und dass auch nichts zu Hause vergessen wurde. Abschalten kann man da nicht wirklich. Aber der ganze Aufwand hat sich wieder einmal gelohnt. Wir hatten tolle Gespräche. Wir haben ein super Feedback von allen Seiten bekommen. Sei es zu unseren Vorträgen, zu unserem Messestand oder zu unserem Auftreten auf der Tagung. Und wir hatten wahnsinnig viel Spaß dabei. Das hat sicherlich zur guten Stimmung beigetragen. Danke an alle doctima-Kollegen und an alle Besucher unseres Standes, das war toll!
Was die Themen betrifft, nehme ich vor allem zwei Strömungen mit. Einerseits Content Delivery: Die Unternehmen wollen ihren Doku-Content über verschiedene Kanäle ausliefern, gerade heutzutage, da viele digitale Möglichkeiten dazu bestehen. Großteils auch als Mobile Dokumentation. Kein Wunder, dass wir viele Gespräche dazu hatten, da wir ja Projekte in dem Themengebiet haben und über unsere Erfahrungen berichten können. Andererseits Content-Wiederverwendung, was nicht so weit weg ist von erstem Thema: Content aus der Doku, vor allem guter Content, soll weiter und wieder genutzt werden. Und da spielt es keine Rolle ob intern oder extern, ob für Service, Support, Marketing, Vertrieb, Interessenten oder Kunden. Wichtig ist, eine Strategie dahinter zu haben, dann bietet der Doku-Content einen nicht zu unterschätzenden Mehrwert. Das waren für mich die beiden, als Marketeer und Vertriebler naheliegenden und daher zu erwartenden, Hauptthemen der Jahrestagung.

Michael Mann

Auf meine erste tekom-Tagung bin ich mit vorsichtiger Neugier gefahren: Einerseits haben die Berichte der Kollegen schon Hoffnung auf eine spannende Veranstaltung gemacht – andererseits will man ja nicht mit zu großen Erwartungen anreisen, die dann nicht erfüllt werden können. Umso besser, dass die Erwartungen dann tatsächlich erfüllt worden sind. Sehr gut gefallen hat mir, dass in den Vorträge „echte“ Produkte und tatsächlich umgesetzte Prozesse mit ihren Ergebnissen vorgestellt wurden und nicht ein „könnte man mal“ oder ein „wäre schön, wenn“. Wenn man in einem Vortrag (zugegebenermaßen als „für Anfänger“ eingestuft) auch mal nichts Neues lernt, kann man sich ja immer noch mit der Schlussfolgerung trösten, dass man in dem Thema auch keine ganz grundlegenden Entwicklungen verpasst hat.
Der Messebesuch führt ganz deutlich vor Augen, dass man in einer Branche arbeitet, die immer noch ein bisschen vielfältiger ist, als man das eigentlich schon wusste. Fazit: Für mich ein rundum gelungener Besuch – nächstes Jahr komme ich gerne wieder!

Was ist Ihr Feedback zur tekom-Jahrestagung 2016? Welche Vorträge oder Workshops fanden Sie gut? Welche Themen haben auf der Tagung gefehlt oder waren eher schwach vertreten? Kommentieren Sie und lassen Sie uns darüber reden.

Lasten- und Pflichtenhefte – der Erfolg entscheidet sich am Dokumentkonzept

Vorgefertigte Lastenhefte wollen viele. Aber wären die sinnvoll?

Vorgefertigte Lastenhefte wollen viele. Aber wären die sinnvoll?

Seit gut zehn Jahren bin ich in Unternehmen unterwegs, um mit Entwicklungsabteilungen einen für die Ingenieure oft lästigen Dokumenttyp auf Vordermann zu bringen: Lasten- und Pflichtenhefte. Egal wohin ich komme, hegen meine Kunden eine ganz bestimmte Hoffnung. Eine Hoffnung, die sich in zwei Fragen ausdrückt:

Frage 1: Gibt es Normen, die man unbedingt beachten muss, um ein wirklich sauberes (und damit vollständiges und möglichst rechtssicheres) Lastenheft oder Pflichtenheft zu erstellen?

Und Frage 2: Gibt es nicht allgemeingültige Dokumentvorlagen mit allen benötigten Inhalten – am besten downloadbar aus dem Web? Und dann ist alles gut?

Unerfüllbare Hoffnungen

Diese Hoffnung muss ich regelmäßig enttäuschen. Leider – könnte man erst einmal meinen.

Natürlich gibt es Normen, die Lasten- und Pflichtenhefte thematisieren, zum Beispiel die DIN 69901. Aber diese Normen helfen bei den Fragen, die die Unternehmen umtreiben, nicht wirklich weiter. Normen kann man vor allem Definitionen entnehmen, was ein Lasten- oder Pflichtenheft ist, was als Gliederung eventuell sinnvoll ist und wie man diese Dokumente in Entwicklungsprozessen am besten einsetzt. Gewonnen ist damit nicht viel.

Dasselbe gilt für downloadbare Vorlagen: Sie können einem einen ersten Eindruck geben, was vielleicht wichtig ist. Aber eine Dokumentvorlage und vor allem die darin enthalten Inhaltspunkte entspringen immer einem bestimmten Kontext und treffen nie passgenau zu. Oder sie sind so allgemein gehalten, dass sie im Grunde nichts aussagen.

Die gute Nachricht – Freiraum für passgenaue Dokumentkonzepte

Mit „Kontext“ ist das relevante Stichwort schon gefallen. Jedes Unternehmen arbeitet (egal ob Auftragnehmer oder Auftraggeber, egal ob Lastenheft oder Pflichtenheft) unter anderen Rahmenbedingungen. Produkte unterscheiden sich technologisch grundlegend, die Vertragspartner sind unterschiedliche, interne Dokumente benötigen andere Inhalte als Dokumente, die über Unternehmensgrenzen ausgetauscht werden. Abhängig davon, wer die Designverantwortung trägt, entwickeln Lasten- und Pflichtenhefte erst ihre eigentliche Gestalt.

Eine Lösung von der Stange – das zeigt mir die Praxis immer wieder ganz deutlich – kann es eigentlich gar nicht geben.

Genau hier aber liegt die große Chance für die Unternehmen. Und das ist die Botschaft, die die Miene meiner Kunden ganz schnell wieder aufhellt. Weil der Kontext hochgradig individuell ist, besteht große Freiheit in der Gestaltung von Lastenheften und Pflichtenheften. Ganz sicher keine Beliebigkeit, aber ein Freiraum, in dem man eine unternehmensspezifisches Dokumentenkonzept entwickeln kann. Ein Konzept, das dann wirklich funktionierende Dokumente ermöglicht.

Was so ein spezifisches Dokumentenkonzept ganz konkret ausmacht, möchte ich hier noch an drei Beispielen zeigen:

Beispiel 1: Es muss nicht immer viel sein

Dieses Konzept ist vor gut zwei Jahren in München entstanden. Ein Unternehmen der Schwerindustrie liefert als Auftragnehmer eine Presseinrichtung für eine große Stahlverarbeitungsanlage. Das spezifizierte Produkt ist für meine Vorstellungen riesengroß, das Pflichtenheft dazu ist aber maximal schlank geworden. Es ist wenige Seiten lang und macht zusammen mit dem Maschinenplan trotzdem eine vollumfängliche Leistungszusage an den Auftraggeber.

Der Kunde hat sehr aufgeatmet: Dass ein Projekt mit Pflichtenheft die Dokumentationsaufwände der Ingenieure, die ja sowieso schon unter hohem Zeitdruck arbeiten, vervielfachen würde – diese Befürchtung hat sich nicht bewahrheitet.

Beispiel 2: Ein Dokument, das skaliert

Genau hinsehen! Auf dem Weg zu einer passgenauen Dokumentkonzeption

Genau hinsehen! Auf dem Weg zu einer passgenauen Dokumentkonzeption

Ein Unternehmen für Fenster- und Fassadentechnologie definiert seinen Entwicklungsprozess für Innovationsprojekte neu. Damit die Entwicklung koordiniert abläuft, soll der Vertrieb als unternehmensinterner Auftraggeber ein Lastenheft schreiben. Das Problem an der bisherigen Praxis: Das Lastenheft des Vertriebs ist der Entwicklung zu unspezifisch, der Vertrieb möchte aber nichts vorgeben und spezifizieren, worüber er noch keine Aussagen machen kann. Eine klassische Patt-Situation.

Als Lösung haben wir ein Lastenheft konzipiert, das mitwachsen kann. In seiner ersten Fassung (das „Lastenheft light“) formuliert der Vertrieb die Produktidee und die zentralen Leistungsmerkmale des neu zu entwickelnden Produkts. Dieser Stand dient der internen Abstimmung. Erst wenn klar ist, ob sich dieses Produktkonzept technologisch und wirtschaftlich umsetzen lässt (und in diesem Bewertungs- und Aushandlungsprozess sitzt die Entwicklung mit am Tisch), wird ein „richtiges“ und umfassendes Lastenheft erstellt, das für die Entwicklungsabteilung die Vorgaben in relevanter Breite und Tiefe niederlegt.

Dass dieses Konzept aufgeht, ist konzeptionell vor allem der Gliederung der neuen Lastenheftvorlage zu verdanken. Sie kann angelehnt an den Fortschritt im Entwicklungsprozess von vorne nach hinten wachsen. Es ist als Lastenheft-Standard eine ganz individuelle Lösung entstanden, die sich durch ein hohes Maß an Flexibilität und Skalierbarkeit auszeichnet.

Beispiel 3: Antworten auf 1500 Anforderungen

Ein letztes Beispiel: Ein Automobilzulieferer bekommt von seinen Auftraggebern in schöner Regelmäßigkeit Lastenhefte vorgelegt, die 300 Seiten und länger sind. Um noch einmal eine Zahl zu nennen: Wir reden von 1200 bis 1500 Anforderungen.

Wie kann nun ein Pflichtenheft bzw. die Leistungszusage in so einem Szenario aussehen? Und zwar ohne dass als Pflichtenheft ein noch längeres Monsterdokument entsteht, das unsinnige Aufwände erzeugt? Denn immerhin sagt die reine Lehre – und auch die Auftraggeber aus dem Automobilsektor fordern es: Ein Pflichtenheft muss Antwort geben auf alle Anforderungen des Auftraggebers.

In diesem Fall entwickeln wir eine Lösung aus zwei Dokumenten:  Die Detailantworten stehen in einer Excel-Liste, die eine maximal kurze Antwort auf wirklich jede Anforderung gibt. Dazu kommt aber – und das war hier das Aha-Erlebnis – ein Rahmendokument, in dem der Auftragnehmer noch einmal losgelöst von dem Detaildokument seine Lösung und seine Leistungsfähigkeit konzentriert darstellt. Das zudem Punkte hervorhebt und anbringt, die ihm aus seiner Rolle heraus wichtig sind – und nicht nur solche, die der Auftraggeber aktiv nachfragt. Und das zu guter Letzt sogar – auch das ein Novum – den Auftraggeber in die Pflicht nimmt.

Seit diesem Jahr gehen alle „Antworten“ dieses Kunden auf diese Weise zurück an seine Auftraggeber.

Buchbar als Praxispaket Lastenhefte/Praxispaket Pflichtenhefte

Die konzeptionelle Anlage eines Lasten- oder Pflichtenheftes halte ich im Rückblick auf bestimmt 60 Beratungs-Einsätze als den wesentlichen Schlüssel zum Erfolg. Und das Schöne ist, dass man die Konzepte so auslegen kann, dass daraus ein wirklicher Standard entsteht – also Vorlagen und Definitionen, die für ganze Klassen von Projekten tragen und nicht nur für einen Einzelfall.

Sollten Ihnen diese Sorte Spezifikationsdokumente auch im Magen liegen: Schauen Sie sich doch einfach einmal unser ‚Praxispaket Lastenhefte/Praxispaket Pflichtenhefte‚ an. Ein bewährtes Verfahren, in dem wir schon ganz viele Unternehmen begleitet haben.

„Vermeintlich“ richtig

"Vermutlich" der beste Freund des Menschen - oder doch eher "vermeintlich"?

„Vermutlich“ der beste Freund des Menschen – oder doch eher „vermeintlich“?

Als Linguist ist es vermutlich ein Berufsrisiko: Sobald ich in einem Text über eine Formulierung stolpere, fange ich an zu grübeln, was da eigentlich los ist.

Sprachliches Unbehagen

Gegrübelt habe ich in letzter Zeit zum Beispiel über Sätze wie diesen aus einem Artikel auf Spiegel online: „In der Zwischenzeit hat Bügerrechtsanwältin Gloria Allred in einer Pressekonferenz in Los Angeles ein weiteres vermeintliches Opfer von Trump vorgestellt. Summer Zervos, eine frühere Kandidatin der Realtity-Show „The Apprentice“, beschuldigt Trump ebenfalls, sie belästigt zu haben.“

Na? Regt sich bei Ihnen auch das sprachliche Unbehagen? Zugegeben, Trump und sein Verhältnis zu Frauen ist immer ein wenig gruselig. Aber das meine ich in dem Fall nicht. Mir geht es auch nicht um  „Bügerrechtsanwältin“ und „Realtity“, sondern um das „vermeintlich“ (na ja, das war bei dem Titel des Posts wohl auch zu erwarten).

Was ist los mit „vermeintlich“?

Im ersten Moment, war ich ein wenig irritiert, anhand welcher Fakten der Autor  Frau Zervos der Lüge überführt hat. Dann wurde mir klar: Es geht hier gar nicht um „vermeintlich“ sondern um „mutmaßlich“. „Vermeintlich“ heißt im Kern: „Es wird behauptet/angenommen, ist in Wirklichkeit aber gar nicht so.“ Gemeint war aber „Es wird behauptet/angenommen.“ und genau das drückt „mutmaßlich“ aus.

Ursachen – vermutlich

Ich denke, dass hier eine Verwechslung mit „vermutlich“ vorliegt. „Vermutlich“ bedeutet zwar das Richtige, Nur hat „vermutlich“ auch den Nachteil, dass es kein typisches Adjektiv ist, was manche Schreiber vermutlich verunsichert. Das Wort unterliegt nämlich bei seiner Verwendung gewissen Beschränkungen. Ein Beispiel: „Der vermutliche Täter ist alt.“ lässt sich ohne Probleme formulieren; dagegen „Der alte Täter ist vermutlich.“ nicht. Das heißt: „Vermutlich“ ist ein Adjektiv, das sich nur eingeschränkt prädikativ verwenden lässt. Bei „vermeintlich“ ist das übrigens genau das Gleiche: „Der alte Täter ist vermeintlich.“ Wohl auch ein Faktor bei der Verwechslungsgefahr.

Ist das denn so wichtig

Wer mich kennt, weiß, dass ich ganz gewiss kein Sprachkritiker bin, der bei jeder Sprachwandel-Erscheinung sofort den Niedergang des Abendlands ausruft. Andererseits muss ich zugeben, dass mir Fehler wie dieser wirklich den Blutdruck in die Höhe treiben. Ich finde nämlich, dass hier etwas sehr Wichtiges verloren geht: Und zwar die Unterscheidungsfähigkeit zwischen Potenziellem und Irrealem. Das Gleiche sieht man auch beim Verschwinden des Konjunktivs. Und bei der Verwechslung zwischen „anscheinend“ und „scheinbar“. Und, und, und. Aber vielleicht muss das ja im Zeitalter der Virtual und Augmented Reality so sein…

(Ergänzung: Offensichtlich ist auch Spiegel online der Fehler bereits aufgefallen. Mittlerweile wurde „vermeintlich“ durch „mutmaßlich“ ersetzt.)

tekom 2016 – doctima mitten dabei

bild1

tekom-Jahrestagung in der Messe Stuttgart (c) doctima

Der Herbst steht an, und wie jedes Jahr mit ihm die tekom-Jahrestagung. Zum dritten Mal nun in Stuttgart. Wir von doctima freuen uns wieder einmal sehr, vor Ort zu sein. Von Dienstag, 08.11.2016 bis Donnerstag, 10.11.2016 ist es wieder soweit.

Die Tagung besteht aus dem Tagungsprogramm mit Vorträgen, Workshops und Tutorials sowie der angeschlosenen Messe. Aussteller der Messe sind Dienstleister sowie Tool- und Produkthersteller aus den Bereichen Technische Kommunikation und Content Management. Eine Welcome Party und Abendveranstaltungen (z. B. eine Städte-Tour oder ein Besuch in der MOTORWORLD) runden das Rahmenprogramm ab.

Thema dieses Jahr: Intelligente Information

Die tekom wirbt in ihrem Programmheft für die Jahrestagung mit dem Titelthema Intelligente Information. Dahin führt der Weg in Zeiten von Digitalisierung, Automatisierung, Information 4.0 und Industrie 4.0. Zusätzlich bewegt die meisten Unternehmen auch die Frage nach der Anwenderfreundlichkeit: Also wie müssen Informationen intelligent aufbereitet sein, damit der Anwender diese nutzerfreundlich erhält? Sowohl technisch als auch inhaltlich? Diese Themen liegen uns als Kommunikationsexperten naturgemäß nahe und wir warten daher mit vielen innovativen Themen auf. Technisch machbar ist heutzutage vieles, aber ist es auch prozesstechnisch sinnvoll oder wirtschaftlich verträglich? Wir leisten Hilfestellung, daher ist das Leitthema der Tagung aus unserer Sicht absolut angebracht.

Viele spannende Vorträge habe ich im Tagungsprogramm schon ausfindig gemacht, vor allem in den Bereichen Mobile Dokumentation, Technisches Marketing oder auch User Experience. Leider habe ich jetzt schon die Befürchtung, dass ich nicht viele der Vorträge besuchen werden kann. Zumindest nicht, wenn unser Stand auf der Messe so gut besucht ist wie letztes Jahr. Auch wir werden wieder Vorträge halten:

  • SEO – Dokumentation für die Suchmaschine? (Prof. Dr. Markus Nickl; Di., 08.11.2016, 13:45-14:30; Raum C6.2 OG)
  • Checklisten – für jeden Anlass (Johannes Dreikorn; Di., 08.11.2016, 16:15-18:00; Raum SR 1 OG & Mi., 09.11.2016, 11:15-13:00; Raum C4.1 OG)
  • Showcase Mobile Dokumentation (Moderation Edgar Hellfritsch, Dr. Stefan Dierssen; Beitrag Demo-App: Romy Stauch; Mi., 09.11.2016, 13:45-15:30; Raum Planum 2)
  • Proof of Concept: Abbildung intelligenter Produkte in einem CMS (Edgar Hellfritsch, Dr. Stefan Dierssen; Do., 10.11.2016, 09:45-10:30; Raum Plenum 2)

doctima mit Messestand und Verlosungs-Aktion

Neben den Vorträgen sind wir wie eben schon erwähnt auch als Aussteller mit einem Messestand auf der anschließenden Messe der Jahrestagung vertreten. Sie finden uns direkt am Eingang in die Halle C1. Das ist deswegen leicht zu finden, weil Sie vom tekom-Informationsstand zwischen den beiden Messehallen nur ein paar Schritte in die Halle C1 gehen müssen, und schon sind Sie an unserem Messestand mit der Nummer C02. Themen, die wir auf der Tagung präsentieren:

mailing

doctima-Stand auf der tekom-Jahrestagung (c) doctima

Zusätzlich haben wir wieder eine Verlosungs-Aktion. Wir verlosen einen 3D-Drucker, den Sie an unserem Messestand auch live in Betrieb erleben können. Also kommen Sie vorbei und werfen Sie Ihre Visitenkarte in die Losbox, um an der Verlosung teilzunehmen. Am letzten Messetag verlosen wir den 3D-Drucker vor Ort. Der Gewinner kann somit seinen Gewinn direkt mitnehmen (wir schicken ihn aber auch gerne zu).

Termin vereinbaren oder Freikarte für die Messe gewünscht?

Wenn Sie auf der tekom-Jahrestagung einen Termin mit uns im Vorfeld vereinbaren wollen, dann melden Sie sich hier dafür an. Sie können uns einen Wunschtermin angeben und dann auf der Tagung an unserem Messestand treffen. So haben Sie Sicherheit, dass wir uns auf jeden Fall intensiv Zeit für Sie nehmen können.

Außerdem können Sie über uns einen Aktions-Code anfordern, mit dem Sie kostenlos die tekom-Messe besuchen können. Einfach hier klicken und in nur einem Schritt fordern Sie Ihren Aktions-Code an, mit dem Sie Zugang zur tekom-Messe erhalten.

Hoffentlich bis in zwei Wochen

Ich hoffe, wir sehen uns auf der tekom-Jahrestagung. Wir freuen uns über jeden Besucher und über jedes Gespräch. Im Nachgang der Tagung werden wir natürlich wieder einen Blogbeitrag über unsere Eindrücke, Erfahrungen, usw. verfassen. Ich bin gespannt, ob sich die Vorfreude bestätigt und die Tagung ein Highlight werden wird.

Wenn sie noch Fragen, Anmerkungen oder Sonstiges zur tekom-Jahrestagung haben, dann einen Kommentar hinterlassen oder bei mir melden: benjamin.rauschenberger@doctima.de oder 0911/97567027.

Gibt es Themen, die Sie auf der Jahrestagung besonders interessieren? Dann lassen Sie doch bitte einen Kommentar da. Wir gehen gerne darauf ein und freuen uns auf Ihren Beitrag.

Steilkurs für PR-Einsteiger

Buchcover: Steinbach: "Crashkurs Public Relations"Als Quereinsteiger hat man es nicht immer leicht. Da sind gute Tipps gefragt oder am besten jemand, der uns für den Anfang unter die Fittiche nimmt. Und genau das beabsichtigt Marion Steinbach mit ihrem „Crashkurs Public Relations“.

Eine Lektüre, die also auch für Technische Redakteure interessant ist. Denn gerade in mittelständischen Unternehmen sind von unserem Beruf ja Allrounder-Fähigkeiten gefragt. Da ist es nicht ungewöhnlich, dass man „nebenbei“ auch die PR des Unternehmens zu bewältigen hat.

Mehr als erwartet

Wer nun denkt, „Crashkurs“ und „9 Schritte“ deutet auf ein schmales Büchlein hin, der wird enttäuscht werden. Denn die neun Schritte brauchen dann doch fast 300 Seiten. Dort findet man dann aber auch alles Wesentliche, was der PR-Einsteiger oder die PR-Einsteigerin wissen muss. Wer schon ein wenig Vorerfahrung mitbringt, wird einiges wiedererkennen: SWOT-Analyse, AIDA-Formel – das hat man womöglich auch an anderer Stelle schon gelesen oder gehört.

Hin- und hergerissen

Da ist es deshalb gut, dass sich Marion Steinbach nicht lange bei den theoretischen Grundlagen aufhält. Auch Themen wie „Das PR-Konzept“ (Kapitel 1) geht sie ganz praxisnah an, mit Tipps die Lust machen, sie sofort umzusetzen. Dazu streut sie in den Text immer wieder Infoboxen („Achtung“, „Extratipp“) ein, die Wichtiges herausheben und gleichzeitig den Lesefluss auflockern. Auch Zitate und Unternehmensbeispiele tragen zur guten Lesbarkeit bei.

Man ist bei dem Crashkurs hin- und hergerissen: Einerseits möchte man das Buch am liebsten in einem Satz durchlesen, andererseits macht es große Lust, die vorgestellten Tipps und Konzepte sofort auszuprobieren. „Leser“ und „Macher“ kommen also gleichermaßen auf ihre Kosten.

Was ich mir gewünscht hätte

Neben dem ingesamt sehr positiven Eindruck stören mich aber auch ein paar Kleinigkeiten an dem Buch. Das Lektorat war leider nicht immer so gründlich, wie man sich das wünschen würde: Wenn man auf Rechtschreibfehler wie „Mediac- lipping“ oder „Präsenz“ statt „Präsens“ stößt, dann ist das zumindest ärgerlich, manchmal sogar verwirrend. Und warum alle Überschriften substantivisch formuliert sind, das letzte Kapitel aber „Events – gar nicht old fashioned“, erschließt sich mir auch nicht. Ach ja, die Überschriften: Warum verspricht man im Titel des Buchs „9 Schritte“, wenn der Begriff „Schritt“ danach nicht mehr auftaucht (außer bei der PR-Strategie als „Step“, dann aber mit nur 4 Steps). Vielleicht deshalb, weil die neun Buchkapitel eben keine Schritte sind, die man der Reihe nach geht, sondern Themeneinheiten, die man je nach Interesse und Bedarf mehr oder weniger unabhängig voneinander lesen kann.

Auch bei der Auswahl der Inhalte hätte man sich an manchen Stellen beschränken können. Themen wie Suchmaschinenoptimierung oder Social Media sind immer ein wenig problematisch, wenn man sie in Buchform packt. In diesen Bereichen ändern sich Inhalte so schnell, dass sie oft schon veraltet sind, bis das Buch erscheint. Zum Beispiel hätte ich mir bei den Social-Media-Plattformen gewünscht, dass auch LinkedIn vorgestellt wird; mittlerweile ist es auch in Deutschland verbreiteter und international sowieso der Standard. Sinnvoller wäre es deshalb wohl gewesen, die Themenkomplexe kurz anzusprechen und auf ein, zwei gute Online-Quellen zur Eigenrecherche zu verweisen.

Alles in allem sind das aber Kleinigkeiten, die höchstens zu Abzügen in der B-Note führen. Eine Sache hätte ich mir aber wirklich gewünscht: Dass dieses Buch schon erschienen wäre, als ich anfing, mich mit PR zu beschäftigen. Dann hätte ich mir manch schmerzhaftes „Trial-and-Error“ erspart. Also: Für Quereinsteiger in die PR-Arbeit eine eindeutige Lese-Empfehlung!

Literatur: Marion Steinbach [2016]: „Crashkurs Public Relations. In 9 Schritten zum Kommunikationsprofi“. UVK Verlagsgesellschaft mbH, Konstanz und München. ISBN 978-3-86496-782-5

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als elektronisches Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Eine App für Arbeitssicherheit und Umweltschutz

dka_screenshot

Die Startseite der Handbuch-App

Heute möchte ich ein Projekt aus dem Bereich Mobile Dokumentation vorstellen, das wir mit unserem Kunden Dresdner Kühlanlagenbau GmbH, kurz: DKA, umgesetzt haben. Einen kurzen Vortrag dazu habe ich bereits im „Showcase Mobile Doku“ auf der letzten tekom-Jahrestagung gehalten. Nach einem Jahr im Produktivbetrieb liegt uns nun eine ganze Reihe von positiven Rückmeldungen vor, die unser Credo bestätigen, dass mobile Dokumentation im richtigen Kontext einen deutlichen Mehrwert gegenüber herkömmlichen (Papier-)Dokumenten schafft.

Die DKA installiert und wartet Kühlanlagen und Klimatechnik für Handel, Gewerbe und Industrie. Die mehreren hundert Monteure im Außeneinsatz sind verpflichtet, ein Handbuch mit Betriebsanweisungen dabei zu haben, die den Umgang mit Gefahrstoffen und gefährlichen Situationen regeln. Das Unternehmen ist vielfach zertifiziert, u. a. nach ISO9001 und §6 ChemKlimaschutzV, und wird auch von seinen Kunden regelmäßig evaluiert. Mit dem Handbuch als Loseblattsammlung war es schwierig sicherzustellen oder nachzuweisen, dass alle Monteure immer mit dem aktuellsten Stand von Informationen versorgt sind. Daraus entstand die Idee, das Handbuch in eine Smartphone-App umzusetzen und um einige hilfreiche Funktionen zu ergänzen.

Was die App leistet

Die App soll im Kern zwei Dinge erreichen: Sicherstellen, dass die Mitarbeiter Änderungen in den Betriebsanweisungen zeitnah und nachweisbar erhalten.Und sie motivieren, das Handbuch tatsächlich zu verwenden.

Um auch in Kellern und Tunneln verfügbar zu sein, bringt die App alle wesentlichen Inhalte – das sind v.a. Betriebsanweisungen und ein Gefahrstoffverzeichnis mit Sicherheitsdatenblättern der Hersteller – offline mit. Verteilt und aktualisiert wird sie via Mobile Device Management.

Um unsere eher handwerklich fokussierte Zielgruppe zum Lesen zu motivieren haben wir uns einige Dinge einfallen lassen. Begonnen mit einer ansprechenden Aufmachung, weiter mit schnellen und alternativen Zugangswegen zur Information, deren Formulierungen wir gestrafft und auf Verständlichkeit optimiert haben bis hin zu einer Kommentarfunktion, um den Kollegen die Möglichkeit zu geben, sich aktiv in den Gestaltungsprozess des Handbuchs mit einzubringen.

Geänderte Anweisungen werden direkt auf der Startseite angezeigt. Im Dokument selbst sind die geänderten Abschnitte farbig hervorgehoben. Zudem erscheint in geänderten Dokumenten ein Button um zu bestätigen, dass man die Änderungen wahrgenommen hat. Nach dem Bestätigen verschwinden Button und Markierungen. Die Bestätigungen aller Mitarbeiter werden auf einem Server gesammelt, wo sie sich für Audits auswerten lassen.

Um einen weiteren Anreiz zu schaffen, regelmäßig in das Handbuch hineinzusehen, haben wir eine Rubrik mit aktuellen Meldungen eingerichtet. Das sind die einzigen Inhalte die direkt vom Server bezogen werden. Sie werden prominent auf der Startseite angezeigt.

Welche Technologien wir verwenden

Das Handbuch ist eine hybride Android-App, d.h. HTML-Seiten verpackt mit Adobe PhoneGap. Das HTML für die Inhalte basiert auf dem responsiven Framework Bootstrap von Twitter, das wir um einige eigene Funktionen erweitert haben. Von den PhoneGap-Features nutzen wir v. a. den lokalen Dateizugriff, um die zugelieferten Sicherheitsdatenblätter-PDFs anzuzeigen, und die lokale Datenbank und die Abfrage des Verbindungsstatus zu Pufferungszwecken. Die Interaktionen mit dem Server erfolgt über Javascript und HTTP.

Ein TYPO3-Server, den wir entsprechend erweitert haben, dient als zentrale Gegenstelle für die Nutzerverwaltung, die aktuellen Meldungen, das Feedback und die Lesebestätigungen.

Für die Redaktion der Inhalte verwenden wir SCHEMA ST4. Dessen Datenmodell mit klassifizierten Knoten, Links und Metadaten nutzen wir, um die Inhalte mit Intelligenz auszustatten.

Intelligenter Content

Neben der Wiederverwendung (in den Betriebsanweisungen werden sehr viele Textbausteine mehrfach eingesetzt) und dem Single Source Publishing (neben einer Desktop-Ausgabe fürs Intranet gibt es von der App auch eine PDF-Druckversion) nutzen wir die Features unseres Redaktionssystems v. a. dazu, um ein möglichst smartes Endprodukt zu erzeugen. Im Folgenden will ich ein paar Beispiele zeigen:

Aufklappbereiche strukturieren die einzelnen Betriebsanweisungen. Zu diesem Zweck haben wir die Betriebsanweisungen in einzelne Objekte (in ST4: „Fragmente“) zerlegt, die über ein Metadatum als Aufklappbereiche markiert sind. Im HTML werden diese Bausteine zu Bootstrap-Panels mit klickbarer Kopfzeile und versteckbarem Body. Der Aufwand für dieses Feature besteht hauptsächlich darin, redaktionell ein Metadatum zu setzen und in der Generierung dafür zu sorgen, dass das Fragment mit Metadatum in ein DIV der Klasse „panel“ umgesetzt wird.

Ein anderes Metadatum steuert, welche Sicherheitssymbole zu Beginn eines Seitenbereichs ausgegeben werden. Das Erfassen über eine Mehrfachauswahl ist leichter und flexibler als das direkte Zuordnen von Bildreferenzen.

Die Einteilung des Inhalts in Bausteine ist auch Voraussetzung dafür, dass einzelne Abschnitte ihr Überarbeitungsdatum kennen und in der App als geändert markiert werden können. Auch hier wird ein Metadatum aus dem Redaktionssystem, diesmal als HTML-Attribut „data-lastchanged“,ins Endprodukt übertragen.

Eine wesentliche Verbesserung der Bedienbarkeit am Smartphone erreichen wir durch die einfache Maßnahme, dass Links als Buttons dargestellt werden. Insbesondere die Notrufnummer, die im Bereich Erste Hilfe immer wieder im Text erscheint, wird als roter Button mit Telefonsymbol umgesetzt – der natürlich bei Betätigung sofort den Notruf auslöst.

Gefahrstoffverzeichnis

Type Ahead: Das Gefahrstoffverzeichnis verkürzt sich während des Tippens

dkagefstoff

Alles zum Gefahrstoff auf einen Blick

Die umfassendste Veränderung haben wir der Gefahrstofftabelle angedeihen lassen. Die ist im Original eine Tabelle mit einem Dutzend Spalten und einigen hundert Zeilen, die sich im Querformat über mehrere DIN-A4-Seiten verteilt. Gefolgt wird sie im Original von einer Reihe von Legenden, da in der Gefahrstofftabelle nur Platz ist für die ISO-Kürzel der verwendeten Gefahrensymbole und Hazard- bzw. Precautionary Statements. Diese Tabelle und ihre Legenden haben wir in einzelne Objekte und Querbeziehungen zwischen ihnen aufgelöst. Das erlaubt uns, mit einer Type Ahead-Auswahlliste in der App einen schnellen Zugang zu den Gefahrstoffen zu legen und jeden Gefahrstoff als eigene übersichtlich gelayoutete HTL-Seite zu erzeugen. Im PDF generieren wir wieder die Tabelle im Querformat.

Mit diesen Beispielen möchte ich zeigen, dass intelligente Information schon mit kleinen Eingriffen in den Redaktionsprozess erreicht werden kann. Die Liste ist nicht vollständig, aber sie soll auch nur ein Gefühl dafür geben, dass es mit überschaubarem Aufwand und ohne das Budget eines Großkonzerns möglich ist, dem Medium mobile Dokumentation einen spürbaren Mehrwert zu verleihen.

Projektergebnisse

Nach einem Jahr Produktivbetrieb sehen wir alle Projektziele erreicht. Die Aktualität nach Rechts- und Sachstand ist deutlich verbessert. Reaktionszeiten sind verkürzt, Lesbarkeit und Zugänglichkeit erhöht, und nebenbei wurden die Verteilkosten gesenkt. Die Nachweisbarkeit ist erreicht, was bereits beeindruckte Rückmeldungen von Auditoren und Großkunden zur Folge hatte. Die App kommt bei der Zielgruppe ebenso gut an wie bei führenden Mitarbeitern und hat im Unternehmen einen hohen Stellenwert, sodass Erweiterungen und weitere ähnliche Anwendungen diskutiert werden.

Wir als doctima (das „wir“ bisher in diesem Beitrag bezog sich immer auf das Projektteam bei uns und bei DKA) haben aus diesem Projekt viel gelernt, insbesondere, was das Zusammenspiel von Redaktionssystem und intelligentem mobilem Informationsprodukt angeht. Im Augenblick entsteht eine Masterarbeit auf der Grundlage unserer Erkenntnisse.

Auf der kommenden tekom-Tagung haben wir außerdem eine Demo-App im Gepäck, mit der Sie sehen können, wie die hier erarbeiteten Konzepte in der Praxis aussehen. Falls Sie noch keine Karten zur tekom Messe haben – kein Problem: Hier anmelden und Sie erhalten gratis von doctima Ihren persönlichen Aktions-Code für eine Freikarte. Und übrigens: Besucher unseres Messestands erhalten einen kostenlosen 3D-gedruckten „Textbaustein“.

Denkblockaden oder Schreibmythen?

Christian Wymann [2016]: Schreibmythen entzaubern

Christian Wymann [2016]: Schreibmythen entzaubern

Falsche Vorstellungen können beim Schreiben oft mehr blockieren als ein schweres Thema oder stilistische Schwächen. Das ist uns in unseren Schreib-Coachings immer wieder aufgefallen. Dankenswerter Weise hat nun Christian Wymann die häufigsten Denkblockaden in einem kurzen Buch zusammengestellt. Denn immerhin: Solche „Schreibmythen“ (wie er sie nennt) können zum echten Karrierekiller werden, wenn sie nicht rechtzeitig „entzaubert“ werden.

Wymanns Buch versammelt je drei „Schreibmythen“ zu Autor, Schreibprozess und Dokument. Die so gesammelten „Schreibmythen“ sind selbstverständlich nicht vollständig, decken aber die häufigsten Missverständnisse ab, die es rund um das Schreiben so gibt. Jedes Kapitel startet mit einem kurzen Fragenteil, der dabei hilft einzuschätzen, ob man diesem „Mythos“ selbst anhängt. Der Autor streut zur Veranschaulichung der „Mythen“ viele Schreibbiographien von professionellen Autoren ein. Zum Ende eines Kapitels gibt Wymann noch kurze Tipps, wie man mit dem jeweiligen „Mythos“ umgehen kann, was sich gegen ihn tun lässt. Ich bezweifle zwar, ob sich eine eingefahrene Denkblockade durch die Lektüre des Buchs wirklich beseitigen lässt. Aber Wymanns Ratgeber kann den ersten Anstoß geben, um mehr über sich und seine Schreibgewohnheiten nachzudenken.

Das Buch beschäftigt sich im Prinzip nur mit dem akademischen Schreiben. Man sollte sich dadurch aber nicht abschrecken lassen. Denn die „Schreibmythen“ wirken auch bei anderen Formen des sachorientierten Schreibens. Für die Technische Redaktion sind sie mühelos übertragbar. Für Technische Redakteure und Redakteurinnen dürfte beim Lesen allerdings das durchgängig verwendete große Binnen-I ungewohnt sein. In der Hochschulwelt ist diese Schreibung mittlerweile verbreitet, in der Wirtschaft aber noch nicht angekommen.

Insgesamt ist „Schreibmythen“ ein lesenswertes Buch, insbesondere für den schmalen Preis von 12,99 €. Ich empfehle es all denen, die eben gerade nicht gerne schreiben. Gestört hat mich bei dem Buch eigentlich nur der Begriff „Schreibmythen“. Ein Mythos ist in meiner Sicht eine Erzählung, die zwar nicht unbedingt die reale, faktische Welt darstellt, aber eine innere Wahrheit wiedergibt. Das sind die hier genannten Schreibmythen aber nun gerade nicht. Deshalb werde ich auch weiter von „Denkblockaden“ sprechen.

Literatur: Christian Wymann [2016]: „Schreibmythen entzaubern. Ungehindert schreiben in der Wissenschaft“. Verlag Barbara Budrich, Opladen, Toronto

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

 

Warum ich SCSS nicht mehr missen möchte

Schickes CSS mit Sass

Schickes CSS mit Sass

Ich beschäftige mich mit Redaktionsprozessen und deren Optimierung. D. h. ich werde immer hellhörig, wenn es eine Chance gibt, etwas zu vereinfachen oder besser zu strukturieren.

In einem anderen Teil meines Jobs gestalte ich Online- und mobile Medien. Dort spielt HTML 5 eine große Rolle. Für dessen Gestaltung verwendet man CSS, und mit CSS habe ich als jemand, der in Strukturen denkt, ein Problem.

Mein Problem mit CSS

CSS bietet kaum Möglichkeiten, zu strukturieren. Es ist auf schnelle Verarbeitung durch den Browser hin optimiert, Wartbarkeit hat nicht Priorität. Im Wesentlichen bestehen CSS-Dateien deswegen aus einer linearen Abfolge von Regelsätzen, die bestenfalls in Blöcke für unterschiedliche Zielmedien gruppiert sind, also z.B. für Mobilgeräte oder Drucker. Alle Angaben sind explizit. Das bedeutet, jede Farbangabe, die mehr als ein Element betrifft, muss mehrfach identisch hingeschrieben werden. Es gibt keine Variablen. Damit werden komplexe Stylesheets schnell unübersichtlich und sind schwierig zu pflegen.

Eine Lösung

Konzeptionell lässt sich die Unstrukturiertheit von CSS nur rudimentär behandeln: Man kann die CSS-Regeln auf mehrere Dateien verteilen. Effektiver wäre es aber, CSS zumindest für die Erfassung um gängige Programmierkonzepte zu erweitern wie Variablen, Vererbung, Hierarchien oder Berechnungsfunktionen.

Tatsächlich haben sich seit Längerem mehrere Formate etabliert, die genau das leisten. Beispiele sind LESS, Coffeescript oder SASS. Das Format SCSS, das ich hier vorstellen will, ist eine syntaktisch andere Geschmacksrichtung von SASS. Diese Sprachen erlauben es, Regelsätze strukturiert zu erfassen, sind aber leider für Browser nicht lesbar. Deshalb werden sie mit sog. Präprozessoren ausgeliefert. Präprozessoren sind Konverter, die Dateien vor dem Ausliefern an den eigentlichen Prozessor (hier: den Browser) verarbeiten. Somit besteht SCSS aus zwei Komponenten:

  • einem Format, bei dem es sich um eine funktionale Erweiterung von CSS handelt.
  • einem Prozessor, der für unterschiedliche Betriebssysteme unter einer MIT-Opensource-Lizenz frei erhältlich ist.

Sassy CSS

Ich möchte die wesentlichen Features von SASS (die Abkürzung steht für „Syntactically Awesome Style Sheets“) bzw. SCSS („Sassy CSS“) hier nur kurz anreißen.

  • Regelsätze schachteln: Angaben beispielsweise für Links, die im Footer oder im Header stehen, lassen sich innerhalb des Regelsatzes für allgemeine Links platzieren, anstatt sich irgendwo über die CSS-Datei zu verteilen.
  • Abgeleitete Klassen: Formate für Warn- und Gefahrenhinweis-Boxen lassen sich von einer gemeinsamen, allgemeineren Klasse Hinweis-Box ableiten, anstatt alle Angaben zu wiederholen oder in mehrere gemeinsame und spezifische Regelsätze zu verteilen.
  • Ausgelagerte Dateifragmente, Partials: In sich geschlossene Teilbereiche, beispielsweise die Regelsätze für das Navigationsmenü, lassen sich in einzelne Dateien auslagern. Das geht auch mit CSS, wo aber jede ausgelagerte Datei im HTML-Kopf explizit referenziert werden muss. Der SCSS-Präprozessor fasst die Partials zu einer einzigen Datei zusammen, was sowohl die Verwaltung der Referenzen im HTML erleichtert als auch die Performance verbessert.
  • Variablen: Werte, aber auch ganze Regeln lassen sich in Variablen deklarieren. Wiederkehrende Gestaltungselemente oder CI-Farben lassen sich somit an einer Stelle verwalten und bei Bedarf zentral austauschen.
  • Operationen und Funktionen: SCSS stellt eine ganze Reihe von Manipulationen und Berechnungen zur Verfügung. Das Spektrum reicht von einfachen Farbänderungen wie darken($color) über Textfunktionen und Mathematik bis hin zur Verarbeitung von assoziativen Listen wie mit map_get($map, $key).
  • Mixins: Mixins sind aufrufbare Makros, denen man Parameter mitgeben kann. Um auf das Beispiel mit den Hinweis-Boxen zurückzukommen: Ein Mixin hinweisbox($severity, $symbol) kann die Darstellungsregeln für eine Hinweis-Box enthalten, mit Parametern für die Gefahrenstufe und das anzuzeigende ISO-Symbol. Die Gestaltung eines Gefahrhinweises mit Augenschutz kann sich dann auf den Aufruf @include hinweisbox(‚Gefahr‘,‘Laser‘) beschränken.

SCSS im Alltag

Wir verwenden SCSS mittlerweile seit mehreren Jahren in praktisch allen Projekten, in denen CSS eine Rolle spielt, und bereuen den Schritt in keiner Weise. Die Aufwände für Installation und Einarbeitung waren kaum der Rede wert. SCSS ist anders als SASS eine reine Erweiterung der CSS-Syntax, womit der Einstieg sehr schnell vonstattenging.

Die Features, die wir am meisten nutzen und die uns massiv Zeit ersparen, sind Variablen und Partials, die besonders in Projekten mit mehreren Layouts (Kunde und Tochterfirma, Eigenmarke und OEM) ihren Nutzen ausspielen. Und, ganz wesentlich: das Schachteln von Regelsätzen, das ein sinnvolles Strukturieren der Stylesheets erst ermöglicht und nebenbei sehr viel Schreibarbeit erspart.

Eine nicht zu unterschätzende Nebenwirkung dieser Strukturierung ist, dass wir automatisch sehr viel systematischer an die Gestaltung der Stylesheets herangehen als zu Zeiten, als wir nur einzelne Regeln hintereinander weggeschrieben haben. Da war es schnell passiert, dass der allgemeine Regelsatz für Links und der spezielle Regelsatz für Links im Footer tausend Zeilen weit auseinander standen. Mit SCSS erhöht sich die Wartbarkeit der Lösung deshalb ganz ungemein.

Was den Übersetzungsvorgang von SCSS nach CSS angeht: Wir haben das in den beiden Entwicklungsumgebungen, mit denen wir arbeiten, PhpStorm und Visual Studio, über Plugins so eingerichtet, dass der Präprozessor beim Speichern der SCSS-Datei automatisch anspringt. Das bedeutet, dass die generierten CSS-Dateien nebenbei und ohne unser explizites Zutun entstehen. Der administrative Mehraufwand besteht also vor allem im einmaligen Einrichten der jeweiligen Plugins.

Fazit

Wir haben SCSS für meinen Geschmack viel zu spät entdeckt, als es bereits jahrelang zur Verfügung stand. Mittlerweile ist es aber für mich und mein Team aus dem Arbeitsalltag nicht mehr wegzudenken, wenn es um Online- und mobile Medien geht. Auch wenn wir seine Möglichkeiten nicht bis ins Letzte ausreizen, sind bereits die wenigen Key Features, die wir ausführlich nutzen, eine erhebliche Erleichterung beim strukturierten Entwickeln und Warten von Stylesheets. Wenn Sie also mit CSS im Vanillegeschmack arbeiten, und gerne effizienter damit umgehen möchten, kann ich Ihnen dringend einen Blick auf SCSS empfehlen.