OneNote als Leitsystem für das Projekt-Management

Entspannt Projekte managen mit OneNote

Von Haus aus ist Microsoft OneNote ja eigentlich „nur“ eine Notizbuch-Software. Allerdings mit dem Potenzial zu sehr viel mehr. Wie wir hier im doctima-Blog schon mehrfach berichtet haben, lässt sich OneNote zu einer intelligenten Projektmanagement-Plattform ausbauen. In der doctima-Redaktion arbeiten wir als Team schon einige Jahre auf dieser Basis. In diesem Post möchte ich noch einmal zusammenfassen, was man tun muss, um dieses Mehr zu erreichen – und was für uns noch heute den Reiz dieser Lösung ausmacht.

Antwort auf zwei zentrale Fragen

Die Grundlage dafür, dass es mit OneNote als Projektmanagement-Plattform klappen kann, liegt in zwei einfachen Fragen. Fragen, die im Grunde für jede Systemeinführung gelten. Was möchte ich mit einer Lösung erreichen? Und wer soll damit arbeiten? Die Frage also nach der Funktion und den Zielgruppen.

Unser Glück war, dass wir diese Fragen bei unserem Start mit OneNote recht gut beantworten konnten. Wir brauchten eine Plattform, die uns bei der inhaltlichen Steuerung der täglichen Projektarbeit unterstützt. Und zwar für ein Team aus bis zu zehn Beteiligten, die allesamt professionell in der Technischen Redaktion unterwegs sind.

Damit war eine klare Grenze gesetzt zu Systemen, die vor allem planerische Aufgaben fokussieren oder auf Verwaltung und Controlling von Budgets spezialisiert sind wie beispielsweise Microsoft Project oder auf Projektmanagement spezialisierte Ticketsysteme wie redmine. Wir haben solche Systeme durchaus im Einsatz, aber als „Hilfssysteme“ und nicht als „Leitsystem“.

OneNote hat sich nach einigen Tests schnell als ein solches „Leitsystem“ angeboten, das unsere naturgemäß stark redaktionell und content-orientierten Bedürfnisse wirksam unterstützt.

Aufgeräumte Informationsstrukturen

A und O eines funktionierenden Datenbestandes sind passgenaue Informationsstrukturen. Strukturen, die über eine längere Zeit halten und in denen sich auch Neueinsteiger – nach einem initialen Briefing – sicher bewegen und zurechtfinden. Im Falle von OneNote betrifft das Thema Informationsstrukturen vor allem die folgenden drei Bereiche:

Die Grobaufteilung der Daten. Liegt alles, was über OneNote organisiert werden soll, in einem einzigen Notizbuch? Oder braucht es mehrere? – Wir als Team haben insgesamt sieben Notizbücher im Einsatz, von denen jedes eine definierte Klasse an gemanagten Daten und Informationen enthält.

Kurz ein Blick in drei dieser Notizbücher – anonymisiert, versteht sich: Herzstück unserer Architektur ist das Notizbuch mit den laufenden Projekten. Quasi als Fundament darunter managt ein weiteres Notizbuch projektübergreifende Informationen und Wissensbestände zu einzelnen Kunden (z. B. den Redaktionsleitfaden, CI-Ressourcen wie das Kundenlogo, spezielle kundenspezifische Arbeitsprozesse, die für jedes Einzelprojekt gelten). Und noch eine Ebene „grundsätzlicher“ angesiedelt ist eine Knowledge-Base in Form eines Notizbuchs, in der wir Fachwissen, das für uns als Team wichtig ist, strukturiert ablegen.

Wie der Screenshot zeigt: Für jedes Notizbuch verwenden wir eine jeweils eigene Form der Informationsstrukturierung. Das Notizbuch für Projekte ist (logischerweise) nach Projekten geordnet, die Knowledge-Base dagegen nach Stichworten.

Als dritte Ebene der Strukturierung arbeiten wir in jedem Notizbuch mit Templates, also vordefinierten Seitentypen. Hier ein Blick auf die Startseite eines Projekts. Wie Sie sehen: Die Aufbereitung der Daten ist strikt standardisiert, was – in diesem Fall zu dem gewünschten – Ergebnis führt, dass jedes Projekt aus Perspektive des standardisierten Informations-Managements unabhängig von seinem Inhalt erst einmal „gleich“ aussieht:

Strikt standardisiert – trotzdem einfach und flexibel

Stringente Standardisierung und Flexibilität müssen sich nicht ausschließen. Das ist etwas, das wir als Team an unserer Lösung mit OneNote sehr schätzen. Dabei kommt uns zugute, dass OneNote im Gegensatz zum Beispiel zu web-basierten Systemen wie Wiki-Plattformen oder Microsoft SharePoint wirklich „wiki“ (also schnell) zu bedienen ist. Es gibt keine Unterscheidung zwischen Frontend (User-Perspektive) und Backend (Verwaltungsperspektive). Brauche ich eine neue Seite, ist sie mit wirklich nur einem einzigen Mausklick angelegt. Natürlich – das System stellt nicht automatisch sicher, dass die Standards (siehe oben) eingehalten werden. Dafür ist der (und nur der) verantwortlich, der vor dem Rechner sitzt. Weil wir ein überschaubares und gut eingespieltes Team sind, ist das für uns kein Problem. In größeren Prozessen kann diese Offenheit von OneNote durchaus zum Fallstrick werden.

Was ich zum Stichwort „Einfachheit“ noch dringend empfehle: Eine Team-spezifische Registerkarte im Menüband von OneNote, die alle Formate, Funktionen und Makros an einer Stelle sammelt. So braucht niemand zu raten, was erlaubt ist und was nicht. Und es geht auch keine Zeit dafür verloren, irgendwo im Menüband von OneNote versteckte Einzelfunktionen zu suchen.

Fazit – Wir bleiben dabei

Ein Leitsystem für’s Projektmanagement mit einer Notizbuch-Software? Ja, das funktioniert. Und auch noch nach Jahren. Wir als Team sehen noch keinen Bedarf, uns grundlegend umzuorientieren. Natürlich hat OneNote deutliche Grenzen, gerade in den Bereichen Automation, Integration und Datenaggregation. Wir arbeiten deswegen wie gesagt mit einem Set an flankierenden Assistenz-Systemen und fahren mit dieser Aufstellung sehr gut.

Ich selbst bin über die Jahre zugegeben zu einem OneNote-Fan geworden – ich organisiere auch privat einiges über OneNote. Und gleich nachher werde ich OneNote wieder beruflich in einem Szenario „at its best“ nutzen. Es geht zu einem Kundenworkshop. Meine Fragen habe ich in OneNote dabei und dank des Caching-Mechanismus die gesamte Projekthistorie mitsamt meiner gewohnten Arbeitsumgebung, ganz so, als würde ich von meinem Schreibtisch im Büro aus arbeiten. Und wenn ich mit den Workshop-Ergebnissen zurückkomme, dauert es nur ein paar Sekunden, bis mein ganzes Team darauf Zugriff hat. Geht’s schneller?

Weltweit erfolgreich mit Single Source Publishing

Hilscher Produktseite

Hilscher Produktseite

Unser Kunde Hilscher als Hersteller von Komponenten für Industrienetzwerke agiert weltweit. Um seine wichtigsten Märkte optimal zu versorgen, pflegt Hilscher seine Website in sieben Sprachen. Sie zeigt unter anderem ein vollständiges, aktuelles Produktportfolio mit 1500 Produkten. Der Effekt dieser umfassenden Kommunikationsleistung ist messbar: bereits im ersten Jahr nach dem zurückliegenden Relaunch verdoppelten sich die Besucherzahlen des Internetauftritts. Dennoch bleibt der Gesamtaufwand für die Verwaltung der Inhalte überschaubar, die Website wird von zwei Mitarbeitern nebenbei betreut. Wie das gelingt, möchte ich in diesem Beitrag schildern.

Produktinformationen mit Single-Source-Ansatz

Detaillierte Informationen zu den einzelnen Produkten machen bei Hilscher das Gros des Website-Contents aus. Diese Inhalte werden nicht direkt im Internet-CMS TYPO3 gepflegt, sondern über einen Connector aus dem Redaktionssystem SCHEMA ST4 dort eingespielt. Es gibt eine Reihe von Gründen, die Produktbeschreibungen in dem für Single-Source-Publishing ausgelegten Redaktionssystem zu pflegen:

1. Mehrfachverwendung

Der naheliegendste Grund: Aus denselben Produktinformationen werden u. a. auch gedruckte Datenblätter erstellt. Um Konsistenz zu gewährleisten und Doppelarbeit zu vermeiden, ist da eine gemeinsame Datenquelle unabdingbar. Mit den HTML- und PDF-Ausgabmechanismen von ST4 lassen sich beide Formate auf Knopfdruck generieren.

2. Modularisierung

Eine Produktbeschreibung ist ein hochgradig strukturiertes Dokument. Sie besteht aus einem festgelegten Satz von Textbestandteilen wie Features, technischen Daten oder Bestellinformationen (Beispiel). Einige dieser Bausteine können dabei für ganze Produktgruppen identisch sein, wofür sich der Wiederverwendungsmechanismus des Redaktionssystems anbietet. Web-CMS sind nicht unbedingt für die Verwaltung dieses Komplexitätsgrads ausgelegt. TYPO3 erlaubt es immerhin, eine Seite aus mehreren Content-Elementen aufzubauen, aber Bearbeitung und Übersetzung verlieren schnell an Übersichtlichkeit.

3. Metadaten

In ST4 is es ein Leichtes, jedes Produkt mit Eigenschaften bzw. Metadaten zu versehen, die sich automatisiert aus dem Produktdatenmanagement übernehmen lassen. Im Internetauftritt entsteht mit diesen Informationen nützliche Zusatzfunktionalität. Bei Hilscher haben wir einen Technologiefilter (Beispiel) und einen kriteriengesteuerten Produkt-Finder implementiert. Beide Mechanismen erleichtern es dem Anwender, die für seine Zwecke richtigen Produkte zu identifizieren.

4. Übersetzungsmanagement

Die Produktbeschreibungen werden mithilfe von TRADOS in einer Agentur übersetzt. Die COTI-Übersetzungsschnittstelle von ST4 erlaubt eine zügige, kosteneffiziente Abwicklung der Übersetzungen und stellt mit seinem Übersetzungsreport ein mächtiges Werkzeug for die Qualitätssicherung zur Verfügung.

5. Qualitätssicherung

Der Abgleich nach TYPO3 aus dem ST4 erfolgt automatisiert über die von doctima entwickelte Standard-Schnittstelle ContentConnect, die Fehlerbehandlung, Datenmodellabgleich und Reporting mitbringt.

Redaktionsarbeit in TYPO3

Überblicksinformationen und Unternehmensbeschreibung sind in der Regel Freitext und lassen sich deshalb leichter als die Produktinformationen im Web-CMS verwalten. Auch sind bei diesen Texten die Nutzeffekte kleiner, die sich z.B. aus Modularisierung und Wiederverwendung ergeben. Deshalb werden diese Informationen direkt in TYPO3 gepflegt.

Um auch in TYPO3 ein systematisches Übersetzungsmanagement zu implementieren, haben wir die vorhandene Extension Localization Manager von Loctimize in Abstimmung mit der Übersetzungsagentur unseres Kunden angepasst.

Aus dem Produktivbetrieb

Das oben beschriebene Setting befindet sich mittlerweile seit einiger Zeit erfolgreich im Produktivbetrieb und die Projekterwartungen konnten vollständig realisiert werden. Neben den erhofften Nutzeffekten haben sich für unseren Kunden aber immer wieder auch unerwartete Benefits ergeben. Ein Beispiel: Wir hatten den  automatisierter Import von Inhalten und verknüpften Metadaten eigentlich für die Produktfinder-Funktion gedacht. Nebenbei liefert er aber systematisch Keywords und verbessert damit u.a. die Statistik-Auswertung von Marketing-Aktionen. Fazit: Wenn sich Dokumentation und Marketing enger zu verzahnen, steht dem weltweiten Erfolg nichts mehr im Weg.

Coach zu werden ist nicht schwer…

Titelblatt "Coach werden"„Coach zu sein dagegen sehr!“ So könnte man das bekannte Gedicht von Wilhelm Busch abwandeln. Denn Coach darf sich jeder nennen. Doch um als Coach seriös und erfolgreich zu arbeiten, braucht es mehr als eine selbstgedruckte Visitenkarte. Andererseits ist auch für viele Redakteure Coaching ein interessantes Tätigkeitsfeld. Denn bei genauerem Hinsehen tun sich einige Parallelen auf. In beiden Berufen geht es darum, durch Kommunikation Veränderungen zu bewirken.  Mit diesem Gedanken ist mir das schmale Buch von Brigitte Wolter in die Hände gefallen und ich habe mich gefragt: „Wird es seinem Anspruch gerecht?“

Das Buch behandelt sein Thema knapp aber logisch. Zunächst beschäftigt sich die Autorin mit der Frage, was eigentlich Coaching ist. Bereits hier hatte ich das erste Aha-Erlebnis. Entgegen dem mittlerweile inflationären Gebrauch des Begriffs, ist Coaching nicht einfach nur ein Synonym für (etwas hippere) Beratung. Coaching definiert sich dadurch, dass der Coach keine Lösungen vorgibt, sondern dem zu Beratenden dabei hilft eigene Lösungen zu entwickeln. Dankenswerter Weise geht die Autorin auch auf die Frage ein, worin die Befriedigung einer Tätigkeit als Coach liegt und welche Anforderungen an einen Coach zu stellen sind.

In der zweiten Hälfte des Buches beantwortet Brigitte Wolter Fragen, die eher organisatorischer Art sind: Wie gehe ich das Projekt „Coach werden“ erfolgsversprechend an? Wo finde ich eine qualifizierte Coaching-Ausbildung? Welche unternehmerischen Fähigkeiten brauche ich als Coach? Und: Wie kann ich mich als Coach mit anderen vernetzen?

Mit einem Umfang von netto 100 Seiten ist das Buch für meinen Geschmack fast schon zu gerafft. Gelegentlich hätte ich mir mehr Tiefe gewünscht und ab und zu konnte ich mich auch des Eindrucks nicht erwehren, dass hier bewusst mit Informationen knausrig umgegangen wird, um so eine Folge-Schulung oder -Beratung anzuschließen. Und wer sich Techniken und Methoden für die Arbeit als Coach erhofft, der ist mit diesem Buch ohnehin an der falschen Stelle.

Deshalb mein Fazit: Alles Wesentliche ist enthalten. Die Leser bekommen einen guten Eindruck davon, was es bedeutet den Beruf Coach zu ergreifen. Als Erstinformation ist das Buch also den Lesern zu empfehlen, die schon einiges über Coaching wissen und nun entscheiden wollen, ob sie sich in diesen Bereich beruflich hineinentwickeln wollen.

Literatur: Wolter, Brigitte [2016]: Ich will Coach werden. Von der Idee zum Traumberuf. budrich inspirited, 2017, 116 Seiten. 978-3-8474-2032-3

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Wie technische Redakteure den Wandel in der technischen Kommunikation aktiv mitgestalten können

Wenn der Zeitdruck steigt, bleibt die Qualität leicht auf der Strecke.

Wenn der Zeitdruck steigt, bleibt die Qualität leicht auf der Strecke.

In unserer Reihe zu Trends in der Technischen Redaktion haben wir heute Ina Franke zu Gast. Sie ist Senior Marketing Manager bei der Acrolinx GmbH. Acrolinx hilft Unternehmen überzeugenden Content zu erstellen: markenkonform, wirkungsvoll und skalierbar. Ausgestattet mit einer fortschrittlichen Sprachtechnologie, „liest“ Acrolinx Content und leitet Autoren an, ihn zu verbessern. Mehr Informationen dazu finden sich auf acrolinx.de.

Der Wert der technischen Kommunikation wird auf Unternehmensebene häufig unterschätzt. Manager betrachten die technische Kommunikation oft als notwendige Kostenstelle und übersehen dabei ihre enorme Bedeutung für die Gewinnung und Bindung von Kunden. Gleichzeitig tun technische Redakteure noch immer wenig, um diese Vorstellung zu korrigieren. Besonders, wenn sie ihren Aufgabenbereich darauf reduzieren, Verbrauchern Fragen zu Produkten und Fehlerbehebungen zu beantworten.

Mit der weiterhin steigenden Bedeutung von Content beobachten wir 6 wichtige Veränderungen im Bereich der technischen Kommunikation, die die Rolle von technischen Redakteuren neu definieren:

  1. Die Erstellung von technischem Content wird vorverlagert. Immer häufiger sind es Ingenieure und Mitarbeiter in der Produktentwicklung und im technischen Support, die Inhalte erstellen. Dadurch wird es schwieriger, für Konsistenz zu sorgen – sowohl innerhalb der technischen Redaktion als auch unternehmensweit. Verschärft wird das Problem dadurch, dass Content oft ohne eine abteilungsübergreifende Abstimmung veröffentlicht wird. Dies kann zu inkorrekten Informationen und unzufriedenen Kunden führen.
  2. Knappe Budgets oder eine fehlende Wertschätzung der technischen Kommunikation können zur Folge haben, dass das Erstellen von technischem Content ausgelagert wird. Auch dies führt dazu, dass Inhalte von zentralen technischen Ressourcen wie Produktentwicklungsteams oder der gesamten Content-Strategie abgekoppelt werden.
  3. Content wird zunehmend von Nicht-Muttersprachlern erstellt. Zu den Folgen dieser Entwicklung zählen fehleranfälliger und inkonsistenter Content, schwer verständliche und kostenaufwändige Übersetzungen und ein mangelnder redaktioneller Überblick. Das Fehlen effektiver Qualitätskontrollen erschwert es außerdem, Fehler zu beheben – oft bleiben diese unkorrigiert.
  4. Vor allem englischer Content wird zunehmend von Nicht-Muttersprachlern gelesen. Vor diesem Hintergrund müssen technische Informationen leicht verständlich sein und interkulturellen Anforderungen genügen. Eine computerunterstützte Übersetzung kann für die Lokalisierung von technischem Content hilfreich sein, erfordert aber eine zusätzliche Qualitätskontrolle.
  5. Engere Zeitpläne machen schnellere Turnarounds erforderlich. Dabei ist es wichtig, dass technische Redakteure frühzeitig integriert werden. Das ist leider nicht immer der Fall. Der Fokus auf Kosten und Schnelligkeit führt häufig sogar dazu, dass technische Inhalte erst auf Nachfrage von Kunden geschrieben werden. So hinkt technischer Content den Entwicklungen oft hinterher.
  6. Technische Redakteure teilen ihr Wissen in sozialen Medien, die von immer mehr Kunden als Ergänzung oder sogar als Ersatz für die eigentliche Dokumentation wahrgenommen werden. Statt Content vor der Auslieferung eines Produkts zu erstellen, reagieren technische Redakteure in Echtzeit auf Fragen von Kunden. Hierbei ist es wichtig, eine gute Balance zu finden. Ansonsten besteht die Gefahr, dass Unternehmen Social Media als zusätzliche Rechtfertigung dafür sehen, technischen Content weiter zu kürzen.

Als technischer Redakteur sollten Sie die genannten Entwicklungen zum Anlass nehmen, sich geschickt neu zu positionieren. Dazu sollten Sie zunächst Ihre Selbstwahrnehmung überprüfen und sich den Wert ihrer Arbeit bewusstmachen.

Die technische Kommunikation kann einen wertvollen Beitrag dazu leisten, die Umsätze Ihres Unternehmens zu steigern. Überlegen Sie, wie Sie strategische Prioritäten Ihres Unternehmens unterstützen und dies nachvollziehbar demonstrieren können. Zeigen Sie, dass die Nachfrage nach Ihrem Content wächst. Dabei können Sie sich auch auf die Marketing-Strategie Ihres Unternehmens und die Wünsche von Kunden beziehen.

Ihre Arbeit spielt eine wichtige Rolle, das Leistungsversprechen Ihres Unternehmens umzusetzen. Um das Potential Ihrer Rolle voll auszuschöpfen, müssen Sie den Wert Ihrer Arbeit jedoch überzeugend auf den Punkt bringen.

Futter für Berater, Trainer und Leute in Führungsverantwortung

Ein Büchlein von Eva Buff Keller und Stefan Jörissen über Abschlussarbeiten liegt schon eine ganze Weile auf meinem Schreibtisch. „Du betreust doch bei uns die meisten Masterarbeiten“ – so kam es dorthin. In die Hand genommen habe ich es immer wieder über die letzten Monate. Und heute möchte ich meine Leseeindrücke endlich teilen.

Weil wir Abschlussarbeiten betreuen

Ja, es ist so. Hier bei doctima entstehen jedes Jahr zwei bis drei Abschlussarbeiten. Meist sind es linguistische oder redaktionelle Themenstellungen. Einfach deswegen, weil wir als Dienstleistungs- und Beratungsunternehmen am Puls der Zeit bleiben und neue Ideen fachlich austesten wollen.

So stehen in unserer Bibliothek mittlerweile eine ganze Reihe Abschlussarbeiten von Studentinnen und Studenten, die im Rahmen eines Praktikums bei uns engagiert waren und als „Krönung“ dieser Zeit zu einem praxisrelevanten Thema geforscht und geschrieben haben. Darunter Arbeiten zu „Checklisten als Instrumente in der Qualitätssicherung“, zum Konzept der „Leichten Sprache“ oder – in Kürze – zu Redaktionsleitfäden für Redaktionen, die ein CMS einsetzen.

Selektives Lesen schärft das Handwerkszeug

Anfangs war ich – ehrlich gesagt – ein bisschen skeptisch, ob ich in meiner Arbeit von diesem Buch profitieren würde. Denn es richtet sich erst einmal an die akademische Welt. Also Leute, die in ihrer Funktion als Dozenten an Hochschulen Abschlussarbeiten von A bis Z betreuen. Eine Hochschule tickt doch sehr anders als ein Unternehmen. Außerdem gibt es Themen, die ich als Zweitbetreuer getrost dem Erstkorrektor und Hauptbetreuer überlassen kann wie zum Beispiel die Frage, ob die Inhalte durchgängig den Anforderungen wissenschaftlichen Schreibens genügen.

Diese Skepsis habe ich nach und nach abgelegt. Und zwar aus mehreren Gründen. Zum einem tritt das Buch mit einem sehr weiten thematischen Horizont an. Wenn es zum Beispiel in Kapitel 2 um die Vermittlung fachlicher und überfachlicher Kompetenzen geht, lesen in mir vor allem der Trainer, Coach und Abteilungsleiter mit großem Interesse mit. Oder wenn Kapitel 4 das „Kontinuum zwischen Führen und Beraten“ reflektiert, finde ich Kompetenzen thematisiert, die ich im Projekt- und Beratungsgeschäft tagtäglich brauche.

Das alles ordne ich – Sie merken es – für mich erst einmal gar nicht in die Rubrik „Abschlussarbeiten“ ein, sondern verknüpfe es mit dem Handwerkszeug, das ich für meinen eigenen Beruf benötige. Diese fachliche Fundiertheit, die mir diese zugegeben sehr selektive Nutzung ermöglicht, halte ich für eine der ganz großen Stärken des Buchs. Man liest und lernt viel zum Thema Wissensvermittlung, Begleitung von Menschen und Bewertung von Inhalten – egal aus welcher Disziplin man kommt.

Fachlich fundiert, systematisch aufbereitet

Natürlich muss man mit dem diskursiven Ansatz des Buchs zurechtkommen. Viele Themen werden nur kurz angesprochen, für Details müsste man den zahlreichen Literaturverweisen auf einschlägige Fachliteratur nachgehen. Das Gute daran: Es wird kein verkürztes und billiges Rezeptwissen feilgeboten. Man bewegt sich auf fachlich solidem Grund.

Und trotzdem wird man nicht mit einer Menge akademischer Richtigkeiten alleine gelassen. Dadurch, dass alle Inhalte in ein generisches Modell eingebunden sind und es viele praktische Tipps und griffige Aufbereitungen zum Beispiel in Form von Diagrammen gibt, lässt sich viel direkter Profit schlagen.

Wo ich mir ganz sicher bin: Wenn die nächste Abschlussarbeit zur Betreuung ansteht, werde ich mich durch das Büchlein weiter coachen lassen. Und dann wirklich ganz im Sinne von Autorin und Autor.

Literatur: Eva Buff Keller, Stefan Jörissen [2015]: „Abschlussarbeiten im Studium anleiten, betreuen und bewerten“. UTB. ISBN 978-3825243456

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Von A nach B – 6 Tipps zur Contentmigration

Pelikane im Flug

Nur selten ist Migration so einfach wie bei Zugvögeln…

Wenn es um die Bestandsdatenübernahme geht, kann man beim Wechsel des CMS einige böse Überraschungen erleben. Denn bei der Übernahme von Altdaten steckt der Teufel im Detail. Deshalb wollen wir heute einmal ein paar Tipps zu den Details geben, auf die Sie in Ihrem Contentmigrations-Projekt achten sollten.

Zeichenkodierung beachten

Welche Zeichenkodierung haben eigentlich die Ausgangsdaten: ISO-8859-1, Windows-1252, Unicode oder etwas noch Exotischeres? Und welche Zeichenkodierung erlaubt bzw. verlangt das Zielsystem. Gibt es im Ausgangstext ein durchgehendes Escaping (Kodierung von Sonderzeichen durch Zeichenfolgen, z. B. „äußerst“ wird zu „äußerst“) und wie lässt sich dieses in das Zielsystem transformieren? Wer hier die Daten vorab genau analysiert, kann eine Menge Probleme im Migrationsprozess vermeiden.

Inkompatible Layout- und Textkonstrukte

Sind die Textkonstrukte zwischen Ausgangs- und Zielsystem kompatibel zueinander.  Komplexe semantische Handlungsanweisungen, tief geschachtelte Listen oder Zeichenformatkombinationen sind typische Problemstellen. Manches System lässt schon die Kombination aus Fett- und Kursivmarkierung (<b><i>Si meliora…</i></b>) aus der Kurve fliegen.

Makros machen Ärger

Gelegentlich werden auch statische Dokumente teilweise dynamisch gestaltet (z. B. durch eingebundene Excel-Berechnungen) oder nachträglich verändert (z. B. durch Word-Makros). Im eigentlichen Bestandscontent sind solche Mechanismen oft nicht leicht zu erkennen und manchmal sind sie den Benutzern nicht einmal bewusst. Hier ist also Recherche angesagt und ein Vergleich zwischen dem Bestandscontent und den ausgelieferten Dokumenten. Hat man solche Mechanismen entdeckt, gilt es zu entscheiden, ob sich auf sie verzichten lässt, ob sie im Zielsystem nachimplementiert werden können oder ob sie durch geeignete Mechanismen des Zielsystems ersetzt werden müssen.

Grafikformate

Auch bei Grafiken gibt es Formatprobleme – und nicht nur wenn es um print oder online als Ausgabemedien geht. Immer wieder kommen bestimmte Zielsysteme nicht mit den Formaten des Ausgangssystems zurecht. Word kann zum Beispiel nicht mit SVG umgehen. Umgekehrt stellen Word-Zeichnungen für fast alle anderen Systeme ein Problem dar. Also: Auch hier genau prüfen, was möglich ist und im Problemfall zum Beispiel ein Kompromissformat finden, mit dem beide Systeme zurechtkommen.

Beschriftungen

Neben den eigentlichen Grafikformaten sollten Sie sich auch die Art der Beschriftung in den Grafiken ansehen. Hier sind ganz unterschiedliche Varianten üblich: fest im Bild integriert (eher selten), als gruppierte Objekte (häufig und schwierig zu migrieren), mit einer eigenständigen, unabhängigen Legende (aufpassen, damit die Zusammenhänge nicht verloren gehen) u. v. m. Bedenken Sie auch die Optionen, die das Zielsystem bietet. Vielleicht ist ja z. B. eine Clickmap die bessere Lösung für die Beschriftung. Denn wenn man schon den Aufwand für die Migration betreibt, dann sollte der Content im Zielsystem auch besser sein als zuvor.

Ein Raum für Informationen

Uwe Reißenweber (c) DOCUFY

Im ersten Teil unserer Reihe zu Trends in der Technischen Dokumentation begrüßen wir Uwe Reißenweber. Er ist Geschäftsführer der DOCUFY GmbH und gilt als Experte für die Implementierung, Einführung und Weiterentwicklung von Technischen Redaktionssystemen. 2016 begründete er die Strategie der Multi-Level-Dokumentation und ebnet so den Weg für die Zukunft der Technischen Dokumentation in einer digitalen Welt.

Aktuelle Trends wie Digitalisierung, Industrie 4.0, Mobile Computing, Social Selling Big Data und Co. beeinflussen die Produkte von morgen und prägen letztlich die zukünftige Entwicklung unserer gesamten Gesellschaft.

Die Technische Dokumentation bleibt davon natürlich nicht verschont. Im Gegenteil, Informationen entwickeln sich immer mehr zum Schmierstoff unserer digitalen Welt und wer könnte diese besser liefern als die Technische Dokumentation? Für sie besteht also die einmalige Chance, das traditionelle Mauerblümchendasein zu verlassen und zu einem der Big Player im Unternehmensgefüge aufzusteigen.

Die Dokumentation von morgen

Damit dies möglich wird, muss sich die Technische Dokumentation ganz neu erfinden: Der Informationsnutzer von morgen wird erwarten, dass ihm die richtige Information im Kontext seiner aktuellen Nutzung durch intelligente Informationssysteme quasi automatisch wie auf dem Silbertablett serviert wird. Selbstverständlich müssen die Informationen dabei mehrdimensional miteinander verknüpft sein. So möchte man in einem Produktkonfigurator von der Nutzerbeschreibung einer bestimmten Produktoption mal schnell in die zugehörige Bedienungsinformation wechseln, den Entsorgungshinweis einsehen oder sinnvolles Zubehör sichten, bevor es dann an die tatsächliche Kaufentscheidung geht. Im Servicefall soll am besten zeitgleich mit dem Serviceauftrag, die notwendige Dokumentation der anstehenden Serviceprozeduren mitgeliefert werden, idealerweise in der richtigen Reihenfolge. Und natürlich wären Tipps und Tricks der Kollegen sehr praktisch, wenn diese sich bereits zu einer bestimmten Tätigkeit oder Fragestellung geäußert haben. Notfalls wäre man sicher auch selbst bereit, eigene Tipps und Kommentare hinzuzufügen – zum Beispiel, wenn es eine besonders gute Lösung für ein Problem gibt.

Im privaten Alltag sind all diese genannten Dinge mit facebook, Google, Amazon und Co. schon gelebte Realität. Nur im professionellen Arbeitsumfeld ist das vorherrschende Informationssystem heute leider noch oft die PDF-Datei.

Das Dokument hat ausgedient

Um aber den zukünftigen Dokumentationsanforderungen gerecht zu werden, ist eine Abkehr von unserem liebgewonnenen Dokument unausweichlich. Einerseits fordern die Informationsnutzer den direkten Zugriff auf passende und korrekte Einzelinformationen. Andererseits wird der dokumentorientierte Redaktionsprozess zunehmend mühsamer, da die zu dokumentierenden Produkte immer varianten- und umfangreicher werden. So führt die Strategie des Maximaldokuments, das alle Varianten und Optionen einer ganzen Produktreihe umfasst, immer öfter ins unbeherrschbare Chaos. In Zeiten, in denen konkrete Produkte sich immer mehr auflösen und zu einer Funktionswolke mutieren, aus der jeder Nutzer sein persönliches Produkt individuell zusammenstellen kann, ist ein dokumentorientierter Redaktionsprozess gänzlich undenkbar. Warum? Mit dem Verschwinden konkreter Produkte entfällt eben auch die Grundlage für einen dokumentorientierten Redaktionsprozess.

Der Informationsraum

Arbeiten im Informationsraum (Symbolbild) (c) DOCUFY

Aber wie sieht die Lösung der zukünftigen Dokumentationsanforderungen aus? Wer übernimmt die Strukturierung, Bündelung und Zuordnung der Information, wenn es kein Dokument mehr gibt? Aus konzeptioneller Sicht ist die Antwort ganz einfach. Wir brauchen einen Informationsraum. Doch wie muss man sich so einen Informationsraum vorstellen? Welche Aufgaben übernimmt er und welche Funktionen hat er?

Der Informationsraum liefert eindeutige Adressen für alle relevanten Informationen eines Geschäftes. Die Einsatzmöglichkeiten gehen dabei weit über die klassische Technische Dokumentation hinaus. Vielmehr können dort Informationen zum gesamten Produktlebenszyklus, von der Entwicklung über Marketing und Vertrieb, Installation, Betrieb, Wartung und schließlich Entsorgung verankert werden. Dabei ist der Informationsraum nicht als eigenständiges Softwaresystem zu verstehen, sondern vielmehr als Konzept, das die eindeutige Adressierung oder besser Klassifizierung von Einzelinformationen ermöglicht.

Auf Basis dieses Informationsraums kann dann zukünftig der Informationsbedarf geplant, die redaktionelle Erstellung gesteuert und die zielgerichtete Nutzung der Information in den verschiedensten Informationssystemen ermöglicht werden.

Zugegeben, das hört sich ziemlich abenteuerlich an und wird die gewohnte Arbeitsweise der traditionellen Technischen Redaktion auf den Kopf stellen. Und es klingt nach viel Arbeit, so einen Informationsraum initial zu erstellen und dauerhaft zu pflegen. Aber um auch zukünftig erfolgreich sein zu können, ist es für Unternehmen unerlässlich, alle geschäftsrelevanten Informationen zu konsolidieren und für verschiedenste Zwecke verfügbar zu machen. Und dies ist die ureigenste Qualifikation und Aufgabe der Technischen Dokumentation.

Ich wünsche Ihnen viel Spaß beim Aufbau Ihres Informationsraums. Und keiner hat behauptet, der Weg zum Big Player wäre leicht… 🙂

Für mehr Information:
www.multi-level-dokumentation.de
www.docufy.de

 

Technischer Content – auf dem Weg in die Zukunft

Achtung CatContent: Was die Zukunft wohl bringt?

Vor einigen Jahren noch hatte ich das Gefühl, dass sich in der Technischen Dokumentation Innovationsstillstand breit macht. Dieser Eindruck hat sich Gott sei Dank in den letzten Jahren geändert. Heute erleben wir eine Branche, die sich (wieder) neu erfindet. Einige Stichworte: mobile Dokumentation, internationale Teams und Redaktionsprozesse, Digitalisierung, Industrie 4.0 und neue Techniken wie VR-Interfaces, 3D-Druck.

Aufgefallen ist mir aber auch eine größere Offenheit gegenüber den Veränderungen. Nachdem sich Technische Redakteure über lange Jahre von den Kollegen aus den Marketing-Abteilungen abgegrenzt haben, sehe ich heute wieder eine größere Offenheit und Bereitschaft von den „anderen“ zu lernen, ohne dabei die eigenen Kernthemen und -standpunkte aufzugeben. Das mag mit einer jungen, gut ausgebildeten Schar von Technikredakteuren zu tun haben, die sich oft als Medienspezialisten und nicht als schreibende Ingenieure verstehen. Begrüßenswert ist es allemal.

Wie wird es nun weitergehen mit der Technischen Dokumentation? Wir haben dazu Hersteller von Software-Systemen aus der Dokumentationsbranche gefragt: „Was sind in den nächsten fünf bis zehn Jahren die großen Trends in der Technischen Dokumentation? Wie wird sich das Arbeiten verändern? Wird es Dokumentation im heutigen Sinn überhaupt noch geben?“ Und spannende Antworten bekommen. Die Beiträge zu dieser Reihe „Trends in der Technischen Dokumentation“ werden in loser Folge erscheinen. Den Anfang macht an diesem Donnerstag Uwe Reißenweber von DOCUFY mit einem Post über „Informationsräume“.

Posts zu dieser Themenreihe

API-Dokumentation – Was brauchen und wollen Entwickler?

Code ist undokumentiert schwer zugänglich
(c) Markus Vogelbacher via pixelio.de

Heute freuen wir uns, wieder einmal eine Gastautorin im doctima-Blog zu begrüßen. Stephanie Steinhardt ist Dipl. Technik-Redakteur (FH) und wissenschaftliche Mitarbeiterin an der Hochschule Merseburg. Als freiberufliche Technik-Redakteurin betreut sie außerdem verschiedene Kunden z. B. aus dem Automobilbereich. In ihrem Post zeigt Sie uns erste Ergebnisse aus einer gemeinsamen Forschungsarbeit mit Prof. Dr. Michael Meng und Andreas Schubert (MA) an der HS Merseburg. Doctima ist an diesem Projekt als Vernetzungspartner beteiligt.

Die Sicht von Entwicklern auf API- Dokumentation ist oftmals sehr verschieden. Während die einen davon überzeugt sind, dass guter Code keiner Dokumentation bedarf, schreiben die anderen selbst gern Dokumentation und konsultieren sie auch häufig. Die Meinungen darüber, wie sie denn aussehen soll, die perfekte API-Dokumentation, gehen ebenfalls auseinander. Es existieren unterschiedliche Ansätze zu Aussehen, Darreichung und Inhalt einer solchen.

An der Hochschule Merseburg widmet sich seit zwei Jahren ein kleines Team von Technik-Redakteuren in einem Forschungsprojekt der Optimierung von API-Dokumentation. Die Fragen nach Struktur und Inhalt der perfekten API-Dokumentation sowie nach dem Leseverhalten der Entwickler stehen dabei im Mittelpunkt der Untersuchungen. Auf Basis von 23 durchgeführten Interviews, der Erhebung von Daten aus rund 100 Fragebögen und einer Beobachtungsreihe, bei der genau verfolgt wurde, wie Entwickler Programmieraufgaben lösen, sowie unter Berücksichtigung der bereits existierenden Studien im Umfeld von Entwicklerdokumentation können wir Empfehlungen geben, die API-Dokumentationen deutlich besser und effizienter nutzbar machen.

Nicht jeder Entwickler ist wie der andere.

Entwickler unterscheiden sich nicht nur in ihrer Einstellung zur Dokumentation, in den Jahren ihrer Programmiererfahrung oder bezüglich der Systemwelt, in welcher sie zu Hause sind. Sie unterscheiden sich vor allem in ihrer Arbeitsweise. So konnten wir in unseren erhobenen Daten zwei verschiedene Ansätze identifizieren, welche vor allem bei der Einarbeitung in eine neue API deutlich hervortreten. So gibt es Entwickler, die einen eher codegetriebenen Ansatz verfolgen und nach eigener Aussage gern direkt mit einem Code-Beispiel einsteigen. Sie erarbeiten sich den Umfang einer API eher intuitiv von unten nach oben. Es gibt aber auch Entwickler, die konzeptorientiert arbeiten und sich vor der Nutzung einer neuen API zunächst einen Überblick verschaffen. Entwickler, die der Meinung sind, dass es nützlich ist, das Konzept der API in Gänze zu verstehen, auch wenn nur ein Teil der API tatsächlich zur Problemlösung genutzt wird.

Abb.: 1 – Absolute Zeitwerte: Recherchezeit (farbig) vs. Bearbeitungszeit (grau) der Probanden 01-11

Besonders deutlich traten diese Verhaltensmuster in der von uns durchgeführten Beobachtungsreihe hervor. So haben 6 der 11 beobachteten Probanden im Konzeptbereich der API-Dokumentation unserer Test-API gelesen, wohingegen die anderen 5 kaum einen Blick hinein warfen und vorrangig auf Beispielcode fixiert waren.

Lesen ist nicht gleich lesen.

Trotz der gegensätzlichen Sichtweisen der Entwickler auf API-Dokumentation hat die Beobachtung gezeigt, dass im Beobachtungszeitraum von jeweils einer Stunde alle Probanden nahezu die Hälfte der Zeit mit der Recherche in der API-Dokumentation zubrachten, während die andere Hälfte für die tatsächliche Programmierung zur Lösung der Aufgaben verwendet wurde.

Wie die Analyse der entstandenen Eyetracking-Aufnahmen zeigte, scannten und überflogen die Entwickler die einzelnen Inhalte mehr, als dass sie tatsächlich Zeile für Zeile lasen. Dabei fokussierten Sie vorrangig auf die visuell hervorgehobenen Elemente, wie Hyperlinks, die Navigation und Beispielcode. Der erklärende Fließtext wurde meist nur dann gelesen, wenn aus dem Beispielcode allein keine Lösung abzuleiten war.

Das Leseverhalten schien darüber hinaus nicht nur beeinflusst von der individuellen Arbeitsweise, sondern war auch geprägt von der Einschätzung zum Schwierigkeitsgrad der gestellten Aufgabe. Bei Aufgaben, die schwieriger zu lösen schienen, waren die Probanden eher geneigt zu lesen, als bei Aufgaben, die einfacher wirkten.

Wer die Prozesse kennt, ist klar im Vorteil.

Bereits in den Interviews und in existierenden Studien kam zum Vorschein, dass mitunter alleinige Programmiererfahrung kein Garant ist für die schnelle Einarbeitung in eine neue API. Vielmehr entscheidend ist das vorhandene Domainwissen. Wer mit den zugrunde liegenden Prozessen vertraut ist, welche die API abbildet und dazu das Fachvokabular kennt, ist deutlich schneller bei der Einarbeitung und Lösung von Programmieraufgaben. Das zeigte auch unsere Beobachtungsreihe sehr eindrücklich (vgl. Abbildung 1 – Probanden 03, 04, 05,06 und 10 besaßen Domainwissen).

Demnach kommt der Vermittlung von Domainwissen in einer API-Dokumentation eine wichtige Rolle zu. Die Platzierung dieser Informationen ist mit Hinblick auf Leseverhalten und Arbeitsweise der Entwickler elementar.

Abb.: 2 – Beispiellayout für Codekommentare im Beispielcode (adaptierter Inhalt, basierend auf https://developers.shipcloud.io/reference/)

Der beste Ort für wichtige Informationen in einer API-Dokumentation ist einer, den alle Entwickler tatsächlich anschauen. Auf Basis der Interviews, den Fragebögen und der Beobachtung können nur Codebeispiele dieser Anforderung genügen. Sie werden von allen Entwicklern angesehen und als Basis der eigenen Programmierung verwendet. „Verkleidet“ man wichtige Informationen als Codekommentar und setzt diese deutlich vom restlichen Codebeispiel ab, kann man sicher sein, dass sie gesehen und, wenn kurz, auch gelesen werden. Auf ausführlichere Beschreibungen sollte zugunsten der eher konzeptorientierten Entwickler aber dennoch nicht verzichtet werden.

Dieser konkrete Optimierungsvorschlag und die zuvor genannten Erkenntnisse sind natürlich nur ein kleiner Teil der bisher gewonnenen Forschungsergebnisse. Unsere Untersuchungen dauern im Moment noch an. Daher sind wir auch sehr interessiert an Unternehmen, die bereit sind, sich an ähnlichen Studien zu beteiligen und damit die Zahl der möglichen Probanden vergrößern.

Kontakt: stephanie.steinhardt@hs-merseburg.de

Migration – eine neue Heimat für den Content

Edgar Hellfritsch

Edgar Hellfritsch

Daten und Content: Ein Schatz, den wir im Lauf der Jahre mühsam aufgebaut haben. Und der zum Problem wird, wenn wir uns zum Beispiel entscheiden von der altgedienten Textverarbeitung (z. B. Word oder FrameMaker) auf ein Content-Management-System umzusteigen. Seltene Aufgabe, die aber doch immer wieder zu erledigen ist, wenn ein Systemumstieg ansteht. Wir haben mit Edgar Hellfritsch geredet. Er beschäftigt sich seit über zwanzig Jahren mit der Frage, wie man Daten und Content am besten migriert und hat über hundert Migrationsprojekte geleitet. In diesem Interview schildert er uns seine Erfahrungen.

doctima: Edgar, wie sieht denn das typische Migrationsprojekt aus?

Jedes Projekt ist irgendwie natürlich wieder anders. Aber grundsätzlich kann man sagen: Ein typisches Migrationsprojekt hat etwa 10.000 Seiten DIN A4, die in etwa 30 Sprachen vorliegen. Migriert wird meistens von einem layout-orientierten Textverarbeitungssystem in ein strukturiertes Format, also ein CMS oder xml-basierte Standards wie DITA. Letzten Endes kommt aber alles vor. Wir hatten auch schon Fälle wo wir DITA nach DITA migriert haben, weil zwei Unternehmensteile sich für einen gemeinsamen Standard entschieden haben.

doctima: Und wie geht man dabei vor?

Grundsätzlich muss man sich entscheiden, ob der Content schrittweise nach und nach migriert werden soll oder zu einem Stichtag in einer großen Hauruck-Aktion. Welches Vorgehen da sinnvoll ist, lässt sich nicht pauschal sagen. Das hängt von der Gesamtdatenmenge, vom Vernetzungsgrad des Contents, von den Redaktions- und Freigabeprozessen und natürlich von der Terminplanung für den Produktionsstart im neuen System ab.

Nach und nach zu migrieren erscheint auf den ersten Blick oft erst einmal wünschenswerter. Altdaten können fallweise auch einmal unmigriert bleiben, der Aufwand ist überschaubarer und die ersten Erfolgserlebnisse sind schnell vorhanden. Aber: Nach und nach zu migrieren bedeutet einen deutlichen Mehraufwand, denn beide Systeme müssen über einen längeren Zeitraum weiterbetreut werden. Und wenn die Redaktion diesen Mehraufwand personell nicht leisten kann, kommt es im schlimmsten Fall dazu, dass die (produktive) Systemeinführung sich so lange verzögert, bis sie komplett scheitert.

Und dann gibt es noch eine Fülle weitere Entscheidungen: intern oder extern, automatisiert oder manuell und, und, und. Jede dieser Entscheidungen hat ihr eigenes Für und Wider. Aber ich glaube das würde jetzt zu weit führen, wenn ich da im Detail darauf eingehe.

doctima: Übernimmt so eine Migration der Systemhersteller?

In den seltensten Fällen. Denn Migration bedeutet eine ganz eigene Art von Expertise, bei der man Ausgangsformat und Endformat genau im Blick haben muss. Auf dem Weg gibt es dabei einige Tücken, die für Systemhersteller schwer zu kalkulieren sind. Im Normalfall ist es hier besser, sich einen Dienstleister ins Boot zu holen, der auf Migrationsprojekte spezialisiert ist.

doctima: Welche Formate sind denn besonders schwer zu migrieren?

Wahrscheinlich erwarten jetzt viele als Antwort: Word! Das ist aber gar nicht so. Denn das Problem liegt nicht so sehr im Format selbst, sondern eher darin, wie strukturiert die Redakteure gearbeitet haben und wie konsequent sie ihre Standards eingehalten haben. Da sind mir Word-Dokumente, bei denen sauber mit Formatvorlagen gearbeitet wurde, tausendmal lieber als Dokumente, bei denen die Redakteure versucht haben, mit XML zu layouten.

Umgekehrt kann eine scheinbar einfache Anforderung, wie DITA nach DITA zu migrieren, sich im Projektverlauf als extrem heikel erweisen, wenn z. B. Metadaten zur Steuerung des Publikationsprozesses verwendet wurden oder eben semantische Strukturen missbraucht wurden, um ein bestimmtes Erscheinungsbild zu erzeugen. Da werden dann Informationssequenzen als Bildbeschriftung getaggt, weil man das Ganze gerne in einer Box darstellen will. Für die Migration ist so etwas ein Desaster.

doctima: Ein Erfolgserlebnis?

Für unsere Kunden ist der größte Erfolg wohl immer, wenn sie sehen, wie schnell ein Großteil des Contents migriert ist. Als derjenige, der sich um die Umsetzung kümmert, sind die ERfolge für mich aber oft eher die Kleinigkeiten am Rande. Vor einiger Zeit ist es mir z. B. in einem Projekt gelungen, komplexe Tabellen automatisiert von CALS nach HTML und wieder zurück umzuwandeln. Der Weg von CALS nach HTML ist mehr oder weniger trivial. Der Weg zurück ist aber ziemlich trickreich, weil das CALS-Tabellenmodell – na sagen wir mal – „originell“ ist. Da muss man sich letzten Endes jede Tabellenzelle einzeln angesehen haben, bevor man die Tabelle zusammenbauen kann. Für den Laien ist das dann nicht weiter spektakulär, wenn am Ende alles klappt. Aber als Spezialist ist man da schon ein wenig stolz.

doctima: Zum Abschluss: Was würdest du jemandem für die Migration raten,  bevor er einen Systemumstieg plant?

Sich neben dem Dokumentbestand auch den Redaktionsprozess vorher genau anzusehen und sich im Zweifelsfall Hilfe von außen zu suchen.  Ohne Bestandsanalyse kann man sonst manche böse Überraschung erleben, weil zum Beispiel im Publikationsprozess Makros nachträglich noch den Content verändern. Generell ist es sinnvoll sich anzusehen, welche Strukturen im Content vorhanden sind und welche davon erhalten bleiben müssen. Wir haben dazu automatisierte Verfahren mit denen wir Bestands-Content analysieren. Da stellt sich dann eigentlich meistens heraus, dass es eine ganze Reihe von Dokumentstrukturen gibt, die bei 10.000 Seiten vielleicht nur drei oder vier Mal vorkommen. Und da sollte man sich dann schon fragen, ob es sich lohnt, das auch im Zielsystem abzubilden.

doctima: Danke für das spannende Interview.

Gerne.