Erzähl mir keine Geschichten

Welche Geschichte wohl hinter diesem Schild steckt?

Heute auf meiner Leseliste: „Digital Storytelling“ von Dieter Georg Herbst und Thomas Heinrich Musiolik. Storytelling? Ja, Geschichten haben wieder Konjunktur im Marketing und der Unternehmenskommunikation. Da lohnt es sich sicher, einmal einen Blick über den Tellerrand zu wagen und zu gucken, ob das nicht auch für die Technische Redaktion ein interessanter Trend werden könnte. Und da kann die Beschränkung auf „digital“ eigentlich nur nutzen, schließlich sind auch bei uns die meisten Texte digital.

Mit einigermaßen großen Hoffnungen habe ich mich also an die Lektüre gemacht. Ich hoffte zum einen mehr darüber zu erfahren, wie Geschichten funktionieren, wie man sie in einem Unternehmenskontext nutzbar macht. Und zum anderen hat mich interessiert, was digitale Geschichten von den Geschichten unterscheidet, die wir alle kennen.

Und ich muss sagen, ich wurde auf ganzer Linie enttäuscht. Was eine Geschichte ist, das setzen die Autoren anscheinend als gegeben voraus. Jedenfalls weiß ich das am Ende des zweiten Kapitels immer noch nicht; das dritte Kapitel zeigt mir aber schon wie ich zum „eigenen Digital Storytelling“ komme. In der Zwischenzeit habe ich bereits mehrfach gehört, wie wichtig es ist, die Lagerfeueratmosphäre des Geschichtenerzählens für Unternehmen nutzbar zu machen. Dabei wird immer wieder mit unterschiedlichsten Begriffen jongliert, die alle irgendwie mit „Geschichten“ zu tun haben: Bilder, Emotionen, Transparenz – alles ist irgendwie eine Story und auch wieder nicht.

Vielleicht liegt das ja auch daran, dass Herbst und Musiolik selbst erstaunlich wenig Geschichten erzählen. Stattdessen changiert der Text zwischen Marketing-Speak und Quasi-Wissenschaftlichkeit. Beispiele werden zwar immer wieder genannt, aber nur angerissen und nicht besprochen, sondern irgendwie immer schon als bekannt vorausgesetzt. Da fehlt es mir letzten Endes an Konkretheit.

Zum Schluss noch ein Geständnis: Es passiert mir nur ganz selten, aber dieses Buch habe ich nicht zu Ende gelesen: Es kann also sein, dass „Digital Storytelling“ so ab dem zweiten Drittel eine komplette Kehrtwende macht und all das liefert, was ich mir erhofft habe. Vielleicht ein Fehler, aber mir fehlte schlicht und einfach die Geduld. An dem Thema Storytelling (und Technische Dokumentation) werde ich sicher dran bleiben. Mit „Digital Storytelling“ aber nicht.

Literatur: Herbst, Dieter Georg; Thomas Heinrich Musiolik [2016]: „Digital Storytelling. Spannende Geschichten für interne Kommunikation, Werbung und PR“. UVK Verlagsgesellschaft mbH, Konstanz und München. ISBN 978-3-7398-0017-2

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als elektronisches Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Von A nach B – 6 Tipps zur Contentmigration

Pelikane im Flug

Nur selten ist Migration so einfach wie bei Zugvögeln…

Wenn es um die Bestandsdatenübernahme geht, kann man beim Wechsel des CMS einige böse Überraschungen erleben. Denn bei der Übernahme von Altdaten steckt der Teufel im Detail. Deshalb wollen wir heute einmal ein paar Tipps zu den Details geben, auf die Sie in Ihrem Contentmigrations-Projekt achten sollten.

Zeichenkodierung beachten

Welche Zeichenkodierung haben eigentlich die Ausgangsdaten: ISO-8859-1, Windows-1252, Unicode oder etwas noch Exotischeres? Und welche Zeichenkodierung erlaubt bzw. verlangt das Zielsystem. Gibt es im Ausgangstext ein durchgehendes Escaping (Kodierung von Sonderzeichen durch Zeichenfolgen, z. B. „äußerst“ wird zu „äußerst“) und wie lässt sich dieses in das Zielsystem transformieren? Wer hier die Daten vorab genau analysiert, kann eine Menge Probleme im Migrationsprozess vermeiden.

Inkompatible Layout- und Textkonstrukte

Sind die Textkonstrukte zwischen Ausgangs- und Zielsystem kompatibel zueinander.  Komplexe semantische Handlungsanweisungen, tief geschachtelte Listen oder Zeichenformatkombinationen sind typische Problemstellen. Manches System lässt schon die Kombination aus Fett- und Kursivmarkierung (<b><i>Si meliora…</i></b>) aus der Kurve fliegen.

Makros machen Ärger

Gelegentlich werden auch statische Dokumente teilweise dynamisch gestaltet (z. B. durch eingebundene Excel-Berechnungen) oder nachträglich verändert (z. B. durch Word-Makros). Im eigentlichen Bestandscontent sind solche Mechanismen oft nicht leicht zu erkennen und manchmal sind sie den Benutzern nicht einmal bewusst. Hier ist also Recherche angesagt und ein Vergleich zwischen dem Bestandscontent und den ausgelieferten Dokumenten. Hat man solche Mechanismen entdeckt, gilt es zu entscheiden, ob sich auf sie verzichten lässt, ob sie im Zielsystem nachimplementiert werden können oder ob sie durch geeignete Mechanismen des Zielsystems ersetzt werden müssen.

Grafikformate

Auch bei Grafiken gibt es Formatprobleme – und nicht nur wenn es um print oder online als Ausgabemedien geht. Immer wieder kommen bestimmte Zielsysteme nicht mit den Formaten des Ausgangssystems zurecht. Word kann zum Beispiel nicht mit SVG umgehen. Umgekehrt stellen Word-Zeichnungen für fast alle anderen Systeme ein Problem dar. Also: Auch hier genau prüfen, was möglich ist und im Problemfall zum Beispiel ein Kompromissformat finden, mit dem beide Systeme zurechtkommen.

Beschriftungen

Neben den eigentlichen Grafikformaten sollten Sie sich auch die Art der Beschriftung in den Grafiken ansehen. Hier sind ganz unterschiedliche Varianten üblich: fest im Bild integriert (eher selten), als gruppierte Objekte (häufig und schwierig zu migrieren), mit einer eigenständigen, unabhängigen Legende (aufpassen, damit die Zusammenhänge nicht verloren gehen) u. v. m. Bedenken Sie auch die Optionen, die das Zielsystem bietet. Vielleicht ist ja z. B. eine Clickmap die bessere Lösung für die Beschriftung. Denn wenn man schon den Aufwand für die Migration betreibt, dann sollte der Content im Zielsystem auch besser sein als zuvor.

Ein Raum für Informationen

Uwe Reißenweber (c) DOCUFY

Im ersten Teil unserer Reihe zu Trends in der Technischen Dokumentation begrüßen wir Uwe Reißenweber. Er ist Geschäftsführer der DOCUFY GmbH und gilt als Experte für die Implementierung, Einführung und Weiterentwicklung von Technischen Redaktionssystemen. 2016 begründete er die Strategie der Multi-Level-Dokumentation und ebnet so den Weg für die Zukunft der Technischen Dokumentation in einer digitalen Welt.

Aktuelle Trends wie Digitalisierung, Industrie 4.0, Mobile Computing, Social Selling Big Data und Co. beeinflussen die Produkte von morgen und prägen letztlich die zukünftige Entwicklung unserer gesamten Gesellschaft.

Die Technische Dokumentation bleibt davon natürlich nicht verschont. Im Gegenteil, Informationen entwickeln sich immer mehr zum Schmierstoff unserer digitalen Welt und wer könnte diese besser liefern als die Technische Dokumentation? Für sie besteht also die einmalige Chance, das traditionelle Mauerblümchendasein zu verlassen und zu einem der Big Player im Unternehmensgefüge aufzusteigen.

Die Dokumentation von morgen

Damit dies möglich wird, muss sich die Technische Dokumentation ganz neu erfinden: Der Informationsnutzer von morgen wird erwarten, dass ihm die richtige Information im Kontext seiner aktuellen Nutzung durch intelligente Informationssysteme quasi automatisch wie auf dem Silbertablett serviert wird. Selbstverständlich müssen die Informationen dabei mehrdimensional miteinander verknüpft sein. So möchte man in einem Produktkonfigurator von der Nutzerbeschreibung einer bestimmten Produktoption mal schnell in die zugehörige Bedienungsinformation wechseln, den Entsorgungshinweis einsehen oder sinnvolles Zubehör sichten, bevor es dann an die tatsächliche Kaufentscheidung geht. Im Servicefall soll am besten zeitgleich mit dem Serviceauftrag, die notwendige Dokumentation der anstehenden Serviceprozeduren mitgeliefert werden, idealerweise in der richtigen Reihenfolge. Und natürlich wären Tipps und Tricks der Kollegen sehr praktisch, wenn diese sich bereits zu einer bestimmten Tätigkeit oder Fragestellung geäußert haben. Notfalls wäre man sicher auch selbst bereit, eigene Tipps und Kommentare hinzuzufügen – zum Beispiel, wenn es eine besonders gute Lösung für ein Problem gibt.

Im privaten Alltag sind all diese genannten Dinge mit facebook, Google, Amazon und Co. schon gelebte Realität. Nur im professionellen Arbeitsumfeld ist das vorherrschende Informationssystem heute leider noch oft die PDF-Datei.

Das Dokument hat ausgedient

Um aber den zukünftigen Dokumentationsanforderungen gerecht zu werden, ist eine Abkehr von unserem liebgewonnenen Dokument unausweichlich. Einerseits fordern die Informationsnutzer den direkten Zugriff auf passende und korrekte Einzelinformationen. Andererseits wird der dokumentorientierte Redaktionsprozess zunehmend mühsamer, da die zu dokumentierenden Produkte immer varianten- und umfangreicher werden. So führt die Strategie des Maximaldokuments, das alle Varianten und Optionen einer ganzen Produktreihe umfasst, immer öfter ins unbeherrschbare Chaos. In Zeiten, in denen konkrete Produkte sich immer mehr auflösen und zu einer Funktionswolke mutieren, aus der jeder Nutzer sein persönliches Produkt individuell zusammenstellen kann, ist ein dokumentorientierter Redaktionsprozess gänzlich undenkbar. Warum? Mit dem Verschwinden konkreter Produkte entfällt eben auch die Grundlage für einen dokumentorientierten Redaktionsprozess.

Der Informationsraum

Arbeiten im Informationsraum (Symbolbild) (c) DOCUFY

Aber wie sieht die Lösung der zukünftigen Dokumentationsanforderungen aus? Wer übernimmt die Strukturierung, Bündelung und Zuordnung der Information, wenn es kein Dokument mehr gibt? Aus konzeptioneller Sicht ist die Antwort ganz einfach. Wir brauchen einen Informationsraum. Doch wie muss man sich so einen Informationsraum vorstellen? Welche Aufgaben übernimmt er und welche Funktionen hat er?

Der Informationsraum liefert eindeutige Adressen für alle relevanten Informationen eines Geschäftes. Die Einsatzmöglichkeiten gehen dabei weit über die klassische Technische Dokumentation hinaus. Vielmehr können dort Informationen zum gesamten Produktlebenszyklus, von der Entwicklung über Marketing und Vertrieb, Installation, Betrieb, Wartung und schließlich Entsorgung verankert werden. Dabei ist der Informationsraum nicht als eigenständiges Softwaresystem zu verstehen, sondern vielmehr als Konzept, das die eindeutige Adressierung oder besser Klassifizierung von Einzelinformationen ermöglicht.

Auf Basis dieses Informationsraums kann dann zukünftig der Informationsbedarf geplant, die redaktionelle Erstellung gesteuert und die zielgerichtete Nutzung der Information in den verschiedensten Informationssystemen ermöglicht werden.

Zugegeben, das hört sich ziemlich abenteuerlich an und wird die gewohnte Arbeitsweise der traditionellen Technischen Redaktion auf den Kopf stellen. Und es klingt nach viel Arbeit, so einen Informationsraum initial zu erstellen und dauerhaft zu pflegen. Aber um auch zukünftig erfolgreich sein zu können, ist es für Unternehmen unerlässlich, alle geschäftsrelevanten Informationen zu konsolidieren und für verschiedenste Zwecke verfügbar zu machen. Und dies ist die ureigenste Qualifikation und Aufgabe der Technischen Dokumentation.

Ich wünsche Ihnen viel Spaß beim Aufbau Ihres Informationsraums. Und keiner hat behauptet, der Weg zum Big Player wäre leicht… 🙂

Für mehr Information:
www.multi-level-dokumentation.de
www.docufy.de

 

Technischer Content – auf dem Weg in die Zukunft

Achtung CatContent: Was die Zukunft wohl bringt?

Vor einigen Jahren noch hatte ich das Gefühl, dass sich in der Technischen Dokumentation Innovationsstillstand breit macht. Dieser Eindruck hat sich Gott sei Dank in den letzten Jahren geändert. Heute erleben wir eine Branche, die sich (wieder) neu erfindet. Einige Stichworte: mobile Dokumentation, internationale Teams und Redaktionsprozesse, Digitalisierung, Industrie 4.0 und neue Techniken wie VR-Interfaces, 3D-Druck.

Aufgefallen ist mir aber auch eine größere Offenheit gegenüber den Veränderungen. Nachdem sich Technische Redakteure über lange Jahre von den Kollegen aus den Marketing-Abteilungen abgegrenzt haben, sehe ich heute wieder eine größere Offenheit und Bereitschaft von den „anderen“ zu lernen, ohne dabei die eigenen Kernthemen und -standpunkte aufzugeben. Das mag mit einer jungen, gut ausgebildeten Schar von Technikredakteuren zu tun haben, die sich oft als Medienspezialisten und nicht als schreibende Ingenieure verstehen. Begrüßenswert ist es allemal.

Wie wird es nun weitergehen mit der Technischen Dokumentation? Wir haben dazu Hersteller von Software-Systemen aus der Dokumentationsbranche gefragt: „Was sind in den nächsten fünf bis zehn Jahren die großen Trends in der Technischen Dokumentation? Wie wird sich das Arbeiten verändern? Wird es Dokumentation im heutigen Sinn überhaupt noch geben?“ Und spannende Antworten bekommen. Die Beiträge zu dieser Reihe „Trends in der Technischen Dokumentation“ werden in loser Folge erscheinen. Den Anfang macht an diesem Donnerstag Uwe Reißenweber von DOCUFY mit einem Post über „Informationsräume“.

Posts zu dieser Themenreihe

API-Dokumentation – Was brauchen und wollen Entwickler?

Code ist undokumentiert schwer zugänglich
(c) Markus Vogelbacher via pixelio.de

Heute freuen wir uns, wieder einmal eine Gastautorin im doctima-Blog zu begrüßen. Stephanie Steinhardt ist Dipl. Technik-Redakteur (FH) und wissenschaftliche Mitarbeiterin an der Hochschule Merseburg. Als freiberufliche Technik-Redakteurin betreut sie außerdem verschiedene Kunden z. B. aus dem Automobilbereich. In ihrem Post zeigt Sie uns erste Ergebnisse aus einer gemeinsamen Forschungsarbeit mit Prof. Dr. Michael Meng und Andreas Schubert (MA) an der HS Merseburg. Doctima ist an diesem Projekt als Vernetzungspartner beteiligt.

Die Sicht von Entwicklern auf API- Dokumentation ist oftmals sehr verschieden. Während die einen davon überzeugt sind, dass guter Code keiner Dokumentation bedarf, schreiben die anderen selbst gern Dokumentation und konsultieren sie auch häufig. Die Meinungen darüber, wie sie denn aussehen soll, die perfekte API-Dokumentation, gehen ebenfalls auseinander. Es existieren unterschiedliche Ansätze zu Aussehen, Darreichung und Inhalt einer solchen.

An der Hochschule Merseburg widmet sich seit zwei Jahren ein kleines Team von Technik-Redakteuren in einem Forschungsprojekt der Optimierung von API-Dokumentation. Die Fragen nach Struktur und Inhalt der perfekten API-Dokumentation sowie nach dem Leseverhalten der Entwickler stehen dabei im Mittelpunkt der Untersuchungen. Auf Basis von 23 durchgeführten Interviews, der Erhebung von Daten aus rund 100 Fragebögen und einer Beobachtungsreihe, bei der genau verfolgt wurde, wie Entwickler Programmieraufgaben lösen, sowie unter Berücksichtigung der bereits existierenden Studien im Umfeld von Entwicklerdokumentation können wir Empfehlungen geben, die API-Dokumentationen deutlich besser und effizienter nutzbar machen.

Nicht jeder Entwickler ist wie der andere.

Entwickler unterscheiden sich nicht nur in ihrer Einstellung zur Dokumentation, in den Jahren ihrer Programmiererfahrung oder bezüglich der Systemwelt, in welcher sie zu Hause sind. Sie unterscheiden sich vor allem in ihrer Arbeitsweise. So konnten wir in unseren erhobenen Daten zwei verschiedene Ansätze identifizieren, welche vor allem bei der Einarbeitung in eine neue API deutlich hervortreten. So gibt es Entwickler, die einen eher codegetriebenen Ansatz verfolgen und nach eigener Aussage gern direkt mit einem Code-Beispiel einsteigen. Sie erarbeiten sich den Umfang einer API eher intuitiv von unten nach oben. Es gibt aber auch Entwickler, die konzeptorientiert arbeiten und sich vor der Nutzung einer neuen API zunächst einen Überblick verschaffen. Entwickler, die der Meinung sind, dass es nützlich ist, das Konzept der API in Gänze zu verstehen, auch wenn nur ein Teil der API tatsächlich zur Problemlösung genutzt wird.

Abb.: 1 – Absolute Zeitwerte: Recherchezeit (farbig) vs. Bearbeitungszeit (grau) der Probanden 01-11

Besonders deutlich traten diese Verhaltensmuster in der von uns durchgeführten Beobachtungsreihe hervor. So haben 6 der 11 beobachteten Probanden im Konzeptbereich der API-Dokumentation unserer Test-API gelesen, wohingegen die anderen 5 kaum einen Blick hinein warfen und vorrangig auf Beispielcode fixiert waren.

Lesen ist nicht gleich lesen.

Trotz der gegensätzlichen Sichtweisen der Entwickler auf API-Dokumentation hat die Beobachtung gezeigt, dass im Beobachtungszeitraum von jeweils einer Stunde alle Probanden nahezu die Hälfte der Zeit mit der Recherche in der API-Dokumentation zubrachten, während die andere Hälfte für die tatsächliche Programmierung zur Lösung der Aufgaben verwendet wurde.

Wie die Analyse der entstandenen Eyetracking-Aufnahmen zeigte, scannten und überflogen die Entwickler die einzelnen Inhalte mehr, als dass sie tatsächlich Zeile für Zeile lasen. Dabei fokussierten Sie vorrangig auf die visuell hervorgehobenen Elemente, wie Hyperlinks, die Navigation und Beispielcode. Der erklärende Fließtext wurde meist nur dann gelesen, wenn aus dem Beispielcode allein keine Lösung abzuleiten war.

Das Leseverhalten schien darüber hinaus nicht nur beeinflusst von der individuellen Arbeitsweise, sondern war auch geprägt von der Einschätzung zum Schwierigkeitsgrad der gestellten Aufgabe. Bei Aufgaben, die schwieriger zu lösen schienen, waren die Probanden eher geneigt zu lesen, als bei Aufgaben, die einfacher wirkten.

Wer die Prozesse kennt, ist klar im Vorteil.

Bereits in den Interviews und in existierenden Studien kam zum Vorschein, dass mitunter alleinige Programmiererfahrung kein Garant ist für die schnelle Einarbeitung in eine neue API. Vielmehr entscheidend ist das vorhandene Domainwissen. Wer mit den zugrunde liegenden Prozessen vertraut ist, welche die API abbildet und dazu das Fachvokabular kennt, ist deutlich schneller bei der Einarbeitung und Lösung von Programmieraufgaben. Das zeigte auch unsere Beobachtungsreihe sehr eindrücklich (vgl. Abbildung 1 – Probanden 03, 04, 05,06 und 10 besaßen Domainwissen).

Demnach kommt der Vermittlung von Domainwissen in einer API-Dokumentation eine wichtige Rolle zu. Die Platzierung dieser Informationen ist mit Hinblick auf Leseverhalten und Arbeitsweise der Entwickler elementar.

Abb.: 2 – Beispiellayout für Codekommentare im Beispielcode (adaptierter Inhalt, basierend auf https://developers.shipcloud.io/reference/)

Der beste Ort für wichtige Informationen in einer API-Dokumentation ist einer, den alle Entwickler tatsächlich anschauen. Auf Basis der Interviews, den Fragebögen und der Beobachtung können nur Codebeispiele dieser Anforderung genügen. Sie werden von allen Entwicklern angesehen und als Basis der eigenen Programmierung verwendet. „Verkleidet“ man wichtige Informationen als Codekommentar und setzt diese deutlich vom restlichen Codebeispiel ab, kann man sicher sein, dass sie gesehen und, wenn kurz, auch gelesen werden. Auf ausführlichere Beschreibungen sollte zugunsten der eher konzeptorientierten Entwickler aber dennoch nicht verzichtet werden.

Dieser konkrete Optimierungsvorschlag und die zuvor genannten Erkenntnisse sind natürlich nur ein kleiner Teil der bisher gewonnenen Forschungsergebnisse. Unsere Untersuchungen dauern im Moment noch an. Daher sind wir auch sehr interessiert an Unternehmen, die bereit sind, sich an ähnlichen Studien zu beteiligen und damit die Zahl der möglichen Probanden vergrößern.

Kontakt: stephanie.steinhardt@hs-merseburg.de

Verständlichkeit – wissenschaftlich und praktisch

„verständlich kommunizieren“ an der Hochschule Luzern

Verständlichkeit ist bei uns ja eines der Kernthemen. Dass sich dazu auf wissenschaftlicher Seite leider weniger tut, als wir uns wünschen, habe ich im doctima Blog schon beklagt. Umso mehr hat mich gefreut, dass mich Sascha Demarmels vor kurzem auf ihr Blog an der Hochschule Luzern aufmerksam gemacht hat. Unter dem Titel verständlich kommunizieren bloggt ihre Arbeitsgruppe zu verschiedenen Themen rund um die Verständlichkeit – aus wissenschaftlicher Sicht wie auch in der praktischen Anwendung.

Leider sind die meisten Posts schon ein wenig älter. Das nimmt den Beiträgen zwar nicht ihren Wert (Verständlichkeit ist ja kein Hype-Thema, das man tagesaktuell verfolgen muss). Aber es wäre wirklich schade, wenn das bedeutet, dass das Blog nun still und leise einschläft. Deshalb meine ich diesen Post nicht nur als Leseempfehlung, sondern auch als Ermutigung an die Bloggenden von der HS Luzern: „Wir wollen gerne mehr davon sehen!“

 

Weihnachten, gecheckt! Unser Gutzi 2016

Geht es Ihnen auch so? Ist die ach so besinnliche Adventszeit mit beruflichen und privaten Terminen bis zum Platzen gefüllt? Und wünschen Sie sich auch, dass nächstes Jahr alles besser wird?

Dann haben wir dieses Jahr genau das Richtige für Sie. Denn immer, wenn wir in Stress kommen, dann sorgen wir mit Checklisten für Überblick. Johannes Dreikorn hat das auf der tekom Herbsttagung dieses Jahr anschaulich vorgestellt. Klar, dass wir mit Checklisten auch für mehr Freiraum im nächsten Jahr sorgen wollen.

Und deshalb haben wir Ihnen vier Checklisten gestaltet, damit beruflich und privat alles geschmeidig läuft:

  • eine Checkliste für das Berufliche, mit der Sie die Content-Qualität Ihrer Dokumentation schnell abprüfen können,
  • eine Checkliste für das Team, um die Kaffeemaschine fit zu halten,
  • eine Checkliste für das ganze Jahr, mit der Sie Ihre Einkäufe leichter organisieren und
  • eine Checkliste für Weihnachten 2017, damit die „staade Zeit“ dieses Mal auch wirklich besinnlich wird.

Mit unserem Weihnachts-Gutzi wünschen wir allen unseren Lesern und Leserinnen besinnliche Feiertage und einen guten Start für 2017.

Migration – eine neue Heimat für den Content

Edgar Hellfritsch

Edgar Hellfritsch

Daten und Content: Ein Schatz, den wir im Lauf der Jahre mühsam aufgebaut haben. Und der zum Problem wird, wenn wir uns zum Beispiel entscheiden von der altgedienten Textverarbeitung (z. B. Word oder FrameMaker) auf ein Content-Management-System umzusteigen. Seltene Aufgabe, die aber doch immer wieder zu erledigen ist, wenn ein Systemumstieg ansteht. Wir haben mit Edgar Hellfritsch geredet. Er beschäftigt sich seit über zwanzig Jahren mit der Frage, wie man Daten und Content am besten migriert und hat über hundert Migrationsprojekte geleitet. In diesem Interview schildert er uns seine Erfahrungen.

doctima: Edgar, wie sieht denn das typische Migrationsprojekt aus?

Jedes Projekt ist irgendwie natürlich wieder anders. Aber grundsätzlich kann man sagen: Ein typisches Migrationsprojekt hat etwa 10.000 Seiten DIN A4, die in etwa 30 Sprachen vorliegen. Migriert wird meistens von einem layout-orientierten Textverarbeitungssystem in ein strukturiertes Format, also ein CMS oder xml-basierte Standards wie DITA. Letzten Endes kommt aber alles vor. Wir hatten auch schon Fälle wo wir DITA nach DITA migriert haben, weil zwei Unternehmensteile sich für einen gemeinsamen Standard entschieden haben.

doctima: Und wie geht man dabei vor?

Grundsätzlich muss man sich entscheiden, ob der Content schrittweise nach und nach migriert werden soll oder zu einem Stichtag in einer großen Hauruck-Aktion. Welches Vorgehen da sinnvoll ist, lässt sich nicht pauschal sagen. Das hängt von der Gesamtdatenmenge, vom Vernetzungsgrad des Contents, von den Redaktions- und Freigabeprozessen und natürlich von der Terminplanung für den Produktionsstart im neuen System ab.

Nach und nach zu migrieren erscheint auf den ersten Blick oft erst einmal wünschenswerter. Altdaten können fallweise auch einmal unmigriert bleiben, der Aufwand ist überschaubarer und die ersten Erfolgserlebnisse sind schnell vorhanden. Aber: Nach und nach zu migrieren bedeutet einen deutlichen Mehraufwand, denn beide Systeme müssen über einen längeren Zeitraum weiterbetreut werden. Und wenn die Redaktion diesen Mehraufwand personell nicht leisten kann, kommt es im schlimmsten Fall dazu, dass die (produktive) Systemeinführung sich so lange verzögert, bis sie komplett scheitert.

Und dann gibt es noch eine Fülle weitere Entscheidungen: intern oder extern, automatisiert oder manuell und, und, und. Jede dieser Entscheidungen hat ihr eigenes Für und Wider. Aber ich glaube das würde jetzt zu weit führen, wenn ich da im Detail darauf eingehe.

doctima: Übernimmt so eine Migration der Systemhersteller?

In den seltensten Fällen. Denn Migration bedeutet eine ganz eigene Art von Expertise, bei der man Ausgangsformat und Endformat genau im Blick haben muss. Auf dem Weg gibt es dabei einige Tücken, die für Systemhersteller schwer zu kalkulieren sind. Im Normalfall ist es hier besser, sich einen Dienstleister ins Boot zu holen, der auf Migrationsprojekte spezialisiert ist.

doctima: Welche Formate sind denn besonders schwer zu migrieren?

Wahrscheinlich erwarten jetzt viele als Antwort: Word! Das ist aber gar nicht so. Denn das Problem liegt nicht so sehr im Format selbst, sondern eher darin, wie strukturiert die Redakteure gearbeitet haben und wie konsequent sie ihre Standards eingehalten haben. Da sind mir Word-Dokumente, bei denen sauber mit Formatvorlagen gearbeitet wurde, tausendmal lieber als Dokumente, bei denen die Redakteure versucht haben, mit XML zu layouten.

Umgekehrt kann eine scheinbar einfache Anforderung, wie DITA nach DITA zu migrieren, sich im Projektverlauf als extrem heikel erweisen, wenn z. B. Metadaten zur Steuerung des Publikationsprozesses verwendet wurden oder eben semantische Strukturen missbraucht wurden, um ein bestimmtes Erscheinungsbild zu erzeugen. Da werden dann Informationssequenzen als Bildbeschriftung getaggt, weil man das Ganze gerne in einer Box darstellen will. Für die Migration ist so etwas ein Desaster.

doctima: Ein Erfolgserlebnis?

Für unsere Kunden ist der größte Erfolg wohl immer, wenn sie sehen, wie schnell ein Großteil des Contents migriert ist. Als derjenige, der sich um die Umsetzung kümmert, sind die ERfolge für mich aber oft eher die Kleinigkeiten am Rande. Vor einiger Zeit ist es mir z. B. in einem Projekt gelungen, komplexe Tabellen automatisiert von CALS nach HTML und wieder zurück umzuwandeln. Der Weg von CALS nach HTML ist mehr oder weniger trivial. Der Weg zurück ist aber ziemlich trickreich, weil das CALS-Tabellenmodell – na sagen wir mal – „originell“ ist. Da muss man sich letzten Endes jede Tabellenzelle einzeln angesehen haben, bevor man die Tabelle zusammenbauen kann. Für den Laien ist das dann nicht weiter spektakulär, wenn am Ende alles klappt. Aber als Spezialist ist man da schon ein wenig stolz.

doctima: Zum Abschluss: Was würdest du jemandem für die Migration raten,  bevor er einen Systemumstieg plant?

Sich neben dem Dokumentbestand auch den Redaktionsprozess vorher genau anzusehen und sich im Zweifelsfall Hilfe von außen zu suchen.  Ohne Bestandsanalyse kann man sonst manche böse Überraschung erleben, weil zum Beispiel im Publikationsprozess Makros nachträglich noch den Content verändern. Generell ist es sinnvoll sich anzusehen, welche Strukturen im Content vorhanden sind und welche davon erhalten bleiben müssen. Wir haben dazu automatisierte Verfahren mit denen wir Bestands-Content analysieren. Da stellt sich dann eigentlich meistens heraus, dass es eine ganze Reihe von Dokumentstrukturen gibt, die bei 10.000 Seiten vielleicht nur drei oder vier Mal vorkommen. Und da sollte man sich dann schon fragen, ob es sich lohnt, das auch im Zielsystem abzubilden.

doctima: Danke für das spannende Interview.

Gerne.

 

„Vermeintlich“ richtig

"Vermutlich" der beste Freund des Menschen - oder doch eher "vermeintlich"?

„Vermutlich“ der beste Freund des Menschen – oder doch eher „vermeintlich“?

Als Linguist ist es vermutlich ein Berufsrisiko: Sobald ich in einem Text über eine Formulierung stolpere, fange ich an zu grübeln, was da eigentlich los ist.

Sprachliches Unbehagen

Gegrübelt habe ich in letzter Zeit zum Beispiel über Sätze wie diesen aus einem Artikel auf Spiegel online: „In der Zwischenzeit hat Bügerrechtsanwältin Gloria Allred in einer Pressekonferenz in Los Angeles ein weiteres vermeintliches Opfer von Trump vorgestellt. Summer Zervos, eine frühere Kandidatin der Realtity-Show „The Apprentice“, beschuldigt Trump ebenfalls, sie belästigt zu haben.“

Na? Regt sich bei Ihnen auch das sprachliche Unbehagen? Zugegeben, Trump und sein Verhältnis zu Frauen ist immer ein wenig gruselig. Aber das meine ich in dem Fall nicht. Mir geht es auch nicht um  „Bügerrechtsanwältin“ und „Realtity“, sondern um das „vermeintlich“ (na ja, das war bei dem Titel des Posts wohl auch zu erwarten).

Was ist los mit „vermeintlich“?

Im ersten Moment, war ich ein wenig irritiert, anhand welcher Fakten der Autor  Frau Zervos der Lüge überführt hat. Dann wurde mir klar: Es geht hier gar nicht um „vermeintlich“ sondern um „mutmaßlich“. „Vermeintlich“ heißt im Kern: „Es wird behauptet/angenommen, ist in Wirklichkeit aber gar nicht so.“ Gemeint war aber „Es wird behauptet/angenommen.“ und genau das drückt „mutmaßlich“ aus.

Ursachen – vermutlich

Ich denke, dass hier eine Verwechslung mit „vermutlich“ vorliegt. „Vermutlich“ bedeutet zwar das Richtige, Nur hat „vermutlich“ auch den Nachteil, dass es kein typisches Adjektiv ist, was manche Schreiber vermutlich verunsichert. Das Wort unterliegt nämlich bei seiner Verwendung gewissen Beschränkungen. Ein Beispiel: „Der vermutliche Täter ist alt.“ lässt sich ohne Probleme formulieren; dagegen „Der alte Täter ist vermutlich.“ nicht. Das heißt: „Vermutlich“ ist ein Adjektiv, das sich nur eingeschränkt prädikativ verwenden lässt. Bei „vermeintlich“ ist das übrigens genau das Gleiche: „Der alte Täter ist vermeintlich.“ Wohl auch ein Faktor bei der Verwechslungsgefahr.

Ist das denn so wichtig

Wer mich kennt, weiß, dass ich ganz gewiss kein Sprachkritiker bin, der bei jeder Sprachwandel-Erscheinung sofort den Niedergang des Abendlands ausruft. Andererseits muss ich zugeben, dass mir Fehler wie dieser wirklich den Blutdruck in die Höhe treiben. Ich finde nämlich, dass hier etwas sehr Wichtiges verloren geht: Und zwar die Unterscheidungsfähigkeit zwischen Potenziellem und Irrealem. Das Gleiche sieht man auch beim Verschwinden des Konjunktivs. Und bei der Verwechslung zwischen „anscheinend“ und „scheinbar“. Und, und, und. Aber vielleicht muss das ja im Zeitalter der Virtual und Augmented Reality so sein…

(Ergänzung: Offensichtlich ist auch Spiegel online der Fehler bereits aufgefallen. Mittlerweile wurde „vermeintlich“ durch „mutmaßlich“ ersetzt.)

Steilkurs für PR-Einsteiger

Buchcover: Steinbach: "Crashkurs Public Relations"Als Quereinsteiger hat man es nicht immer leicht. Da sind gute Tipps gefragt oder am besten jemand, der uns für den Anfang unter die Fittiche nimmt. Und genau das beabsichtigt Marion Steinbach mit ihrem „Crashkurs Public Relations“.

Eine Lektüre, die also auch für Technische Redakteure interessant ist. Denn gerade in mittelständischen Unternehmen sind von unserem Beruf ja Allrounder-Fähigkeiten gefragt. Da ist es nicht ungewöhnlich, dass man „nebenbei“ auch die PR des Unternehmens zu bewältigen hat.

Mehr als erwartet

Wer nun denkt, „Crashkurs“ und „9 Schritte“ deutet auf ein schmales Büchlein hin, der wird enttäuscht werden. Denn die neun Schritte brauchen dann doch fast 300 Seiten. Dort findet man dann aber auch alles Wesentliche, was der PR-Einsteiger oder die PR-Einsteigerin wissen muss. Wer schon ein wenig Vorerfahrung mitbringt, wird einiges wiedererkennen: SWOT-Analyse, AIDA-Formel – das hat man womöglich auch an anderer Stelle schon gelesen oder gehört.

Hin- und hergerissen

Da ist es deshalb gut, dass sich Marion Steinbach nicht lange bei den theoretischen Grundlagen aufhält. Auch Themen wie „Das PR-Konzept“ (Kapitel 1) geht sie ganz praxisnah an, mit Tipps die Lust machen, sie sofort umzusetzen. Dazu streut sie in den Text immer wieder Infoboxen („Achtung“, „Extratipp“) ein, die Wichtiges herausheben und gleichzeitig den Lesefluss auflockern. Auch Zitate und Unternehmensbeispiele tragen zur guten Lesbarkeit bei.

Man ist bei dem Crashkurs hin- und hergerissen: Einerseits möchte man das Buch am liebsten in einem Satz durchlesen, andererseits macht es große Lust, die vorgestellten Tipps und Konzepte sofort auszuprobieren. „Leser“ und „Macher“ kommen also gleichermaßen auf ihre Kosten.

Was ich mir gewünscht hätte

Neben dem ingesamt sehr positiven Eindruck stören mich aber auch ein paar Kleinigkeiten an dem Buch. Das Lektorat war leider nicht immer so gründlich, wie man sich das wünschen würde: Wenn man auf Rechtschreibfehler wie „Mediac- lipping“ oder „Präsenz“ statt „Präsens“ stößt, dann ist das zumindest ärgerlich, manchmal sogar verwirrend. Und warum alle Überschriften substantivisch formuliert sind, das letzte Kapitel aber „Events – gar nicht old fashioned“, erschließt sich mir auch nicht. Ach ja, die Überschriften: Warum verspricht man im Titel des Buchs „9 Schritte“, wenn der Begriff „Schritt“ danach nicht mehr auftaucht (außer bei der PR-Strategie als „Step“, dann aber mit nur 4 Steps). Vielleicht deshalb, weil die neun Buchkapitel eben keine Schritte sind, die man der Reihe nach geht, sondern Themeneinheiten, die man je nach Interesse und Bedarf mehr oder weniger unabhängig voneinander lesen kann.

Auch bei der Auswahl der Inhalte hätte man sich an manchen Stellen beschränken können. Themen wie Suchmaschinenoptimierung oder Social Media sind immer ein wenig problematisch, wenn man sie in Buchform packt. In diesen Bereichen ändern sich Inhalte so schnell, dass sie oft schon veraltet sind, bis das Buch erscheint. Zum Beispiel hätte ich mir bei den Social-Media-Plattformen gewünscht, dass auch LinkedIn vorgestellt wird; mittlerweile ist es auch in Deutschland verbreiteter und international sowieso der Standard. Sinnvoller wäre es deshalb wohl gewesen, die Themenkomplexe kurz anzusprechen und auf ein, zwei gute Online-Quellen zur Eigenrecherche zu verweisen.

Alles in allem sind das aber Kleinigkeiten, die höchstens zu Abzügen in der B-Note führen. Eine Sache hätte ich mir aber wirklich gewünscht: Dass dieses Buch schon erschienen wäre, als ich anfing, mich mit PR zu beschäftigen. Dann hätte ich mir manch schmerzhaftes „Trial-and-Error“ erspart. Also: Für Quereinsteiger in die PR-Arbeit eine eindeutige Lese-Empfehlung!

Literatur: Marion Steinbach [2016]: „Crashkurs Public Relations. In 9 Schritten zum Kommunikationsprofi“. UVK Verlagsgesellschaft mbH, Konstanz und München. ISBN 978-3-86496-782-5

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als elektronisches Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.