Ein Raum für Informationen

Uwe Reißenweber (c) DOCUFY

Im ersten Teil unserer Reihe zu Trends in der Technischen Dokumentation begrüßen wir Uwe Reißenweber. Er ist Geschäftsführer der DOCUFY GmbH und gilt als Experte für die Implementierung, Einführung und Weiterentwicklung von Technischen Redaktionssystemen. 2016 begründete er die Strategie der Multi-Level-Dokumentation und ebnet so den Weg für die Zukunft der Technischen Dokumentation in einer digitalen Welt.

Aktuelle Trends wie Digitalisierung, Industrie 4.0, Mobile Computing, Social Selling Big Data und Co. beeinflussen die Produkte von morgen und prägen letztlich die zukünftige Entwicklung unserer gesamten Gesellschaft.

Die Technische Dokumentation bleibt davon natürlich nicht verschont. Im Gegenteil, Informationen entwickeln sich immer mehr zum Schmierstoff unserer digitalen Welt und wer könnte diese besser liefern als die Technische Dokumentation? Für sie besteht also die einmalige Chance, das traditionelle Mauerblümchendasein zu verlassen und zu einem der Big Player im Unternehmensgefüge aufzusteigen.

Die Dokumentation von morgen

Damit dies möglich wird, muss sich die Technische Dokumentation ganz neu erfinden: Der Informationsnutzer von morgen wird erwarten, dass ihm die richtige Information im Kontext seiner aktuellen Nutzung durch intelligente Informationssysteme quasi automatisch wie auf dem Silbertablett serviert wird. Selbstverständlich müssen die Informationen dabei mehrdimensional miteinander verknüpft sein. So möchte man in einem Produktkonfigurator von der Nutzerbeschreibung einer bestimmten Produktoption mal schnell in die zugehörige Bedienungsinformation wechseln, den Entsorgungshinweis einsehen oder sinnvolles Zubehör sichten, bevor es dann an die tatsächliche Kaufentscheidung geht. Im Servicefall soll am besten zeitgleich mit dem Serviceauftrag, die notwendige Dokumentation der anstehenden Serviceprozeduren mitgeliefert werden, idealerweise in der richtigen Reihenfolge. Und natürlich wären Tipps und Tricks der Kollegen sehr praktisch, wenn diese sich bereits zu einer bestimmten Tätigkeit oder Fragestellung geäußert haben. Notfalls wäre man sicher auch selbst bereit, eigene Tipps und Kommentare hinzuzufügen – zum Beispiel, wenn es eine besonders gute Lösung für ein Problem gibt.

Im privaten Alltag sind all diese genannten Dinge mit facebook, Google, Amazon und Co. schon gelebte Realität. Nur im professionellen Arbeitsumfeld ist das vorherrschende Informationssystem heute leider noch oft die PDF-Datei.

Das Dokument hat ausgedient

Um aber den zukünftigen Dokumentationsanforderungen gerecht zu werden, ist eine Abkehr von unserem liebgewonnenen Dokument unausweichlich. Einerseits fordern die Informationsnutzer den direkten Zugriff auf passende und korrekte Einzelinformationen. Andererseits wird der dokumentorientierte Redaktionsprozess zunehmend mühsamer, da die zu dokumentierenden Produkte immer varianten- und umfangreicher werden. So führt die Strategie des Maximaldokuments, das alle Varianten und Optionen einer ganzen Produktreihe umfasst, immer öfter ins unbeherrschbare Chaos. In Zeiten, in denen konkrete Produkte sich immer mehr auflösen und zu einer Funktionswolke mutieren, aus der jeder Nutzer sein persönliches Produkt individuell zusammenstellen kann, ist ein dokumentorientierter Redaktionsprozess gänzlich undenkbar. Warum? Mit dem Verschwinden konkreter Produkte entfällt eben auch die Grundlage für einen dokumentorientierten Redaktionsprozess.

Der Informationsraum

Arbeiten im Informationsraum (Symbolbild) (c) DOCUFY

Aber wie sieht die Lösung der zukünftigen Dokumentationsanforderungen aus? Wer übernimmt die Strukturierung, Bündelung und Zuordnung der Information, wenn es kein Dokument mehr gibt? Aus konzeptioneller Sicht ist die Antwort ganz einfach. Wir brauchen einen Informationsraum. Doch wie muss man sich so einen Informationsraum vorstellen? Welche Aufgaben übernimmt er und welche Funktionen hat er?

Der Informationsraum liefert eindeutige Adressen für alle relevanten Informationen eines Geschäftes. Die Einsatzmöglichkeiten gehen dabei weit über die klassische Technische Dokumentation hinaus. Vielmehr können dort Informationen zum gesamten Produktlebenszyklus, von der Entwicklung über Marketing und Vertrieb, Installation, Betrieb, Wartung und schließlich Entsorgung verankert werden. Dabei ist der Informationsraum nicht als eigenständiges Softwaresystem zu verstehen, sondern vielmehr als Konzept, das die eindeutige Adressierung oder besser Klassifizierung von Einzelinformationen ermöglicht.

Auf Basis dieses Informationsraums kann dann zukünftig der Informationsbedarf geplant, die redaktionelle Erstellung gesteuert und die zielgerichtete Nutzung der Information in den verschiedensten Informationssystemen ermöglicht werden.

Zugegeben, das hört sich ziemlich abenteuerlich an und wird die gewohnte Arbeitsweise der traditionellen Technischen Redaktion auf den Kopf stellen. Und es klingt nach viel Arbeit, so einen Informationsraum initial zu erstellen und dauerhaft zu pflegen. Aber um auch zukünftig erfolgreich sein zu können, ist es für Unternehmen unerlässlich, alle geschäftsrelevanten Informationen zu konsolidieren und für verschiedenste Zwecke verfügbar zu machen. Und dies ist die ureigenste Qualifikation und Aufgabe der Technischen Dokumentation.

Ich wünsche Ihnen viel Spaß beim Aufbau Ihres Informationsraums. Und keiner hat behauptet, der Weg zum Big Player wäre leicht… 🙂

Für mehr Information:
www.multi-level-dokumentation.de
www.docufy.de

 

API-Dokumentation – Was brauchen und wollen Entwickler?

Code ist undokumentiert schwer zugänglich
(c) Markus Vogelbacher via pixelio.de

Heute freuen wir uns, wieder einmal eine Gastautorin im doctima-Blog zu begrüßen. Stephanie Steinhardt ist Dipl. Technik-Redakteur (FH) und wissenschaftliche Mitarbeiterin an der Hochschule Merseburg. Als freiberufliche Technik-Redakteurin betreut sie außerdem verschiedene Kunden z. B. aus dem Automobilbereich. In ihrem Post zeigt Sie uns erste Ergebnisse aus einer gemeinsamen Forschungsarbeit mit Prof. Dr. Michael Meng und Andreas Schubert (MA) an der HS Merseburg. Doctima ist an diesem Projekt als Vernetzungspartner beteiligt.

Die Sicht von Entwicklern auf API- Dokumentation ist oftmals sehr verschieden. Während die einen davon überzeugt sind, dass guter Code keiner Dokumentation bedarf, schreiben die anderen selbst gern Dokumentation und konsultieren sie auch häufig. Die Meinungen darüber, wie sie denn aussehen soll, die perfekte API-Dokumentation, gehen ebenfalls auseinander. Es existieren unterschiedliche Ansätze zu Aussehen, Darreichung und Inhalt einer solchen.

An der Hochschule Merseburg widmet sich seit zwei Jahren ein kleines Team von Technik-Redakteuren in einem Forschungsprojekt der Optimierung von API-Dokumentation. Die Fragen nach Struktur und Inhalt der perfekten API-Dokumentation sowie nach dem Leseverhalten der Entwickler stehen dabei im Mittelpunkt der Untersuchungen. Auf Basis von 23 durchgeführten Interviews, der Erhebung von Daten aus rund 100 Fragebögen und einer Beobachtungsreihe, bei der genau verfolgt wurde, wie Entwickler Programmieraufgaben lösen, sowie unter Berücksichtigung der bereits existierenden Studien im Umfeld von Entwicklerdokumentation können wir Empfehlungen geben, die API-Dokumentationen deutlich besser und effizienter nutzbar machen.

Nicht jeder Entwickler ist wie der andere.

Entwickler unterscheiden sich nicht nur in ihrer Einstellung zur Dokumentation, in den Jahren ihrer Programmiererfahrung oder bezüglich der Systemwelt, in welcher sie zu Hause sind. Sie unterscheiden sich vor allem in ihrer Arbeitsweise. So konnten wir in unseren erhobenen Daten zwei verschiedene Ansätze identifizieren, welche vor allem bei der Einarbeitung in eine neue API deutlich hervortreten. So gibt es Entwickler, die einen eher codegetriebenen Ansatz verfolgen und nach eigener Aussage gern direkt mit einem Code-Beispiel einsteigen. Sie erarbeiten sich den Umfang einer API eher intuitiv von unten nach oben. Es gibt aber auch Entwickler, die konzeptorientiert arbeiten und sich vor der Nutzung einer neuen API zunächst einen Überblick verschaffen. Entwickler, die der Meinung sind, dass es nützlich ist, das Konzept der API in Gänze zu verstehen, auch wenn nur ein Teil der API tatsächlich zur Problemlösung genutzt wird.

Abb.: 1 – Absolute Zeitwerte: Recherchezeit (farbig) vs. Bearbeitungszeit (grau) der Probanden 01-11

Besonders deutlich traten diese Verhaltensmuster in der von uns durchgeführten Beobachtungsreihe hervor. So haben 6 der 11 beobachteten Probanden im Konzeptbereich der API-Dokumentation unserer Test-API gelesen, wohingegen die anderen 5 kaum einen Blick hinein warfen und vorrangig auf Beispielcode fixiert waren.

Lesen ist nicht gleich lesen.

Trotz der gegensätzlichen Sichtweisen der Entwickler auf API-Dokumentation hat die Beobachtung gezeigt, dass im Beobachtungszeitraum von jeweils einer Stunde alle Probanden nahezu die Hälfte der Zeit mit der Recherche in der API-Dokumentation zubrachten, während die andere Hälfte für die tatsächliche Programmierung zur Lösung der Aufgaben verwendet wurde.

Wie die Analyse der entstandenen Eyetracking-Aufnahmen zeigte, scannten und überflogen die Entwickler die einzelnen Inhalte mehr, als dass sie tatsächlich Zeile für Zeile lasen. Dabei fokussierten Sie vorrangig auf die visuell hervorgehobenen Elemente, wie Hyperlinks, die Navigation und Beispielcode. Der erklärende Fließtext wurde meist nur dann gelesen, wenn aus dem Beispielcode allein keine Lösung abzuleiten war.

Das Leseverhalten schien darüber hinaus nicht nur beeinflusst von der individuellen Arbeitsweise, sondern war auch geprägt von der Einschätzung zum Schwierigkeitsgrad der gestellten Aufgabe. Bei Aufgaben, die schwieriger zu lösen schienen, waren die Probanden eher geneigt zu lesen, als bei Aufgaben, die einfacher wirkten.

Wer die Prozesse kennt, ist klar im Vorteil.

Bereits in den Interviews und in existierenden Studien kam zum Vorschein, dass mitunter alleinige Programmiererfahrung kein Garant ist für die schnelle Einarbeitung in eine neue API. Vielmehr entscheidend ist das vorhandene Domainwissen. Wer mit den zugrunde liegenden Prozessen vertraut ist, welche die API abbildet und dazu das Fachvokabular kennt, ist deutlich schneller bei der Einarbeitung und Lösung von Programmieraufgaben. Das zeigte auch unsere Beobachtungsreihe sehr eindrücklich (vgl. Abbildung 1 – Probanden 03, 04, 05,06 und 10 besaßen Domainwissen).

Demnach kommt der Vermittlung von Domainwissen in einer API-Dokumentation eine wichtige Rolle zu. Die Platzierung dieser Informationen ist mit Hinblick auf Leseverhalten und Arbeitsweise der Entwickler elementar.

Abb.: 2 – Beispiellayout für Codekommentare im Beispielcode (adaptierter Inhalt, basierend auf https://developers.shipcloud.io/reference/)

Der beste Ort für wichtige Informationen in einer API-Dokumentation ist einer, den alle Entwickler tatsächlich anschauen. Auf Basis der Interviews, den Fragebögen und der Beobachtung können nur Codebeispiele dieser Anforderung genügen. Sie werden von allen Entwicklern angesehen und als Basis der eigenen Programmierung verwendet. „Verkleidet“ man wichtige Informationen als Codekommentar und setzt diese deutlich vom restlichen Codebeispiel ab, kann man sicher sein, dass sie gesehen und, wenn kurz, auch gelesen werden. Auf ausführlichere Beschreibungen sollte zugunsten der eher konzeptorientierten Entwickler aber dennoch nicht verzichtet werden.

Dieser konkrete Optimierungsvorschlag und die zuvor genannten Erkenntnisse sind natürlich nur ein kleiner Teil der bisher gewonnenen Forschungsergebnisse. Unsere Untersuchungen dauern im Moment noch an. Daher sind wir auch sehr interessiert an Unternehmen, die bereit sind, sich an ähnlichen Studien zu beteiligen und damit die Zahl der möglichen Probanden vergrößern.

Kontakt: stephanie.steinhardt@hs-merseburg.de

Verständlichkeit – wissenschaftlich und praktisch

„verständlich kommunizieren“ an der Hochschule Luzern

Verständlichkeit ist bei uns ja eines der Kernthemen. Dass sich dazu auf wissenschaftlicher Seite leider weniger tut, als wir uns wünschen, habe ich im doctima Blog schon beklagt. Umso mehr hat mich gefreut, dass mich Sascha Demarmels vor kurzem auf ihr Blog an der Hochschule Luzern aufmerksam gemacht hat. Unter dem Titel verständlich kommunizieren bloggt ihre Arbeitsgruppe zu verschiedenen Themen rund um die Verständlichkeit – aus wissenschaftlicher Sicht wie auch in der praktischen Anwendung.

Leider sind die meisten Posts schon ein wenig älter. Das nimmt den Beiträgen zwar nicht ihren Wert (Verständlichkeit ist ja kein Hype-Thema, das man tagesaktuell verfolgen muss). Aber es wäre wirklich schade, wenn das bedeutet, dass das Blog nun still und leise einschläft. Deshalb meine ich diesen Post nicht nur als Leseempfehlung, sondern auch als Ermutigung an die Bloggenden von der HS Luzern: „Wir wollen gerne mehr davon sehen!“

 

Weihnachten, gecheckt! Unser Gutzi 2016

Geht es Ihnen auch so? Ist die ach so besinnliche Adventszeit mit beruflichen und privaten Terminen bis zum Platzen gefüllt? Und wünschen Sie sich auch, dass nächstes Jahr alles besser wird?

Dann haben wir dieses Jahr genau das Richtige für Sie. Denn immer, wenn wir in Stress kommen, dann sorgen wir mit Checklisten für Überblick. Johannes Dreikorn hat das auf der tekom Herbsttagung dieses Jahr anschaulich vorgestellt. Klar, dass wir mit Checklisten auch für mehr Freiraum im nächsten Jahr sorgen wollen.

Und deshalb haben wir Ihnen vier Checklisten gestaltet, damit beruflich und privat alles geschmeidig läuft:

  • eine Checkliste für das Berufliche, mit der Sie die Content-Qualität Ihrer Dokumentation schnell abprüfen können,
  • eine Checkliste für das Team, um die Kaffeemaschine fit zu halten,
  • eine Checkliste für das ganze Jahr, mit der Sie Ihre Einkäufe leichter organisieren und
  • eine Checkliste für Weihnachten 2017, damit die „staade Zeit“ dieses Mal auch wirklich besinnlich wird.

Mit unserem Weihnachts-Gutzi wünschen wir allen unseren Lesern und Leserinnen besinnliche Feiertage und einen guten Start für 2017.

Migration – eine neue Heimat für den Content

Edgar Hellfritsch

Edgar Hellfritsch

Daten und Content: Ein Schatz, den wir im Lauf der Jahre mühsam aufgebaut haben. Und der zum Problem wird, wenn wir uns zum Beispiel entscheiden von der altgedienten Textverarbeitung (z. B. Word oder FrameMaker) auf ein Content-Management-System umzusteigen. Seltene Aufgabe, die aber doch immer wieder zu erledigen ist, wenn ein Systemumstieg ansteht. Wir haben mit Edgar Hellfritsch geredet. Er beschäftigt sich seit über zwanzig Jahren mit der Frage, wie man Daten und Content am besten migriert und hat über hundert Migrationsprojekte geleitet. In diesem Interview schildert er uns seine Erfahrungen.

doctima: Edgar, wie sieht denn das typische Migrationsprojekt aus?

Jedes Projekt ist irgendwie natürlich wieder anders. Aber grundsätzlich kann man sagen: Ein typisches Migrationsprojekt hat etwa 10.000 Seiten DIN A4, die in etwa 30 Sprachen vorliegen. Migriert wird meistens von einem layout-orientierten Textverarbeitungssystem in ein strukturiertes Format, also ein CMS oder xml-basierte Standards wie DITA. Letzten Endes kommt aber alles vor. Wir hatten auch schon Fälle wo wir DITA nach DITA migriert haben, weil zwei Unternehmensteile sich für einen gemeinsamen Standard entschieden haben.

doctima: Und wie geht man dabei vor?

Grundsätzlich muss man sich entscheiden, ob der Content schrittweise nach und nach migriert werden soll oder zu einem Stichtag in einer großen Hauruck-Aktion. Welches Vorgehen da sinnvoll ist, lässt sich nicht pauschal sagen. Das hängt von der Gesamtdatenmenge, vom Vernetzungsgrad des Contents, von den Redaktions- und Freigabeprozessen und natürlich von der Terminplanung für den Produktionsstart im neuen System ab.

Nach und nach zu migrieren erscheint auf den ersten Blick oft erst einmal wünschenswerter. Altdaten können fallweise auch einmal unmigriert bleiben, der Aufwand ist überschaubarer und die ersten Erfolgserlebnisse sind schnell vorhanden. Aber: Nach und nach zu migrieren bedeutet einen deutlichen Mehraufwand, denn beide Systeme müssen über einen längeren Zeitraum weiterbetreut werden. Und wenn die Redaktion diesen Mehraufwand personell nicht leisten kann, kommt es im schlimmsten Fall dazu, dass die (produktive) Systemeinführung sich so lange verzögert, bis sie komplett scheitert.

Und dann gibt es noch eine Fülle weitere Entscheidungen: intern oder extern, automatisiert oder manuell und, und, und. Jede dieser Entscheidungen hat ihr eigenes Für und Wider. Aber ich glaube das würde jetzt zu weit führen, wenn ich da im Detail darauf eingehe.

doctima: Übernimmt so eine Migration der Systemhersteller?

In den seltensten Fällen. Denn Migration bedeutet eine ganz eigene Art von Expertise, bei der man Ausgangsformat und Endformat genau im Blick haben muss. Auf dem Weg gibt es dabei einige Tücken, die für Systemhersteller schwer zu kalkulieren sind. Im Normalfall ist es hier besser, sich einen Dienstleister ins Boot zu holen, der auf Migrationsprojekte spezialisiert ist.

doctima: Welche Formate sind denn besonders schwer zu migrieren?

Wahrscheinlich erwarten jetzt viele als Antwort: Word! Das ist aber gar nicht so. Denn das Problem liegt nicht so sehr im Format selbst, sondern eher darin, wie strukturiert die Redakteure gearbeitet haben und wie konsequent sie ihre Standards eingehalten haben. Da sind mir Word-Dokumente, bei denen sauber mit Formatvorlagen gearbeitet wurde, tausendmal lieber als Dokumente, bei denen die Redakteure versucht haben, mit XML zu layouten.

Umgekehrt kann eine scheinbar einfache Anforderung, wie DITA nach DITA zu migrieren, sich im Projektverlauf als extrem heikel erweisen, wenn z. B. Metadaten zur Steuerung des Publikationsprozesses verwendet wurden oder eben semantische Strukturen missbraucht wurden, um ein bestimmtes Erscheinungsbild zu erzeugen. Da werden dann Informationssequenzen als Bildbeschriftung getaggt, weil man das Ganze gerne in einer Box darstellen will. Für die Migration ist so etwas ein Desaster.

doctima: Ein Erfolgserlebnis?

Für unsere Kunden ist der größte Erfolg wohl immer, wenn sie sehen, wie schnell ein Großteil des Contents migriert ist. Als derjenige, der sich um die Umsetzung kümmert, sind die ERfolge für mich aber oft eher die Kleinigkeiten am Rande. Vor einiger Zeit ist es mir z. B. in einem Projekt gelungen, komplexe Tabellen automatisiert von CALS nach HTML und wieder zurück umzuwandeln. Der Weg von CALS nach HTML ist mehr oder weniger trivial. Der Weg zurück ist aber ziemlich trickreich, weil das CALS-Tabellenmodell – na sagen wir mal – „originell“ ist. Da muss man sich letzten Endes jede Tabellenzelle einzeln angesehen haben, bevor man die Tabelle zusammenbauen kann. Für den Laien ist das dann nicht weiter spektakulär, wenn am Ende alles klappt. Aber als Spezialist ist man da schon ein wenig stolz.

doctima: Zum Abschluss: Was würdest du jemandem für die Migration raten,  bevor er einen Systemumstieg plant?

Sich neben dem Dokumentbestand auch den Redaktionsprozess vorher genau anzusehen und sich im Zweifelsfall Hilfe von außen zu suchen.  Ohne Bestandsanalyse kann man sonst manche böse Überraschung erleben, weil zum Beispiel im Publikationsprozess Makros nachträglich noch den Content verändern. Generell ist es sinnvoll sich anzusehen, welche Strukturen im Content vorhanden sind und welche davon erhalten bleiben müssen. Wir haben dazu automatisierte Verfahren mit denen wir Bestands-Content analysieren. Da stellt sich dann eigentlich meistens heraus, dass es eine ganze Reihe von Dokumentstrukturen gibt, die bei 10.000 Seiten vielleicht nur drei oder vier Mal vorkommen. Und da sollte man sich dann schon fragen, ob es sich lohnt, das auch im Zielsystem abzubilden.

doctima: Danke für das spannende Interview.

Gerne.

 

Information 4.0 – Schritte auf dem Weg zur Intelligenten Information

Industrielle Steuerung?Die Digitalisierung der Arbeitswelt ist derzeit eines der meist diskutierten Themen. Auch unserer Branche, der Technischen Dokumentation, stehen tief greifende Veränderungen bevor.
Seit Anfang 2016 bin ich Mitglied der tekom-AG „Information 4.0“ und gestalte dadurch diese Veränderungen mit. In der AG arbeiten wir iiRDS aus, einen Standard zur Bereitstellung von intelligenter Information in digitalisierten, vernetzten Umgebungen. Mit diesem Beitrag fasse ich einige meiner Gedanken zum Thema Industrie 4.0 und intelligente Information zusammen.

Einige Begriffe

  • Industrie 4.0, digitale Fabrik: Sich selbst steuernde, weitestgehend automatisierte Fertigungsprozesse, die der Mensch nur noch „orchestriert“ und bei Bedarf eingreift.
  • Cyberphysikalisches System: Komponente, die aus einem dinglichen Objekt und aus einer digitalen, vernetzten Repräsentation besteht.
  • RAMI 4.0: dreidimensionales Referenzarchitekturmodell der Plattform Industrie 4.0. Strukturiert das Thema nach Lebenszklus von Entwurf bis Entsorgung, Hierarchie von Einzelkomponente bis zur umgebenden Cloud und nach Integrationslevel von Objekt („Asset“) bis Geschäftsmodell („Business“).
  • Verwaltungsschale: Digitale Repräsentation eines cyberphysikalischen Systems. Enthält beschreibende und identifizierende Eigenschaften, Sensordaten und Zugriffsmöglichkeiten zu digitalen Funktionen.

Technische Dokumentation heute

Für die meisten Akteure im Umfeld Industrie 4.0 findet Technische Dokumentation auf dem sog. „Asset Level“ in der digitalen Fabrik statt. Sie gehen gedanklich vom aktuellen Status Quo (oder eigentlich von dem Stand vor zehn Jahren) aus, und der heißt PDF. Dokumente für Installation, Wartung, Betrieb und ggf. Entsorgung werden als Einheiten betrachtet und als abrufbare Eigenschaften in der Verwaltungsschale eingeplant.

Auf diese Granularität zielt wohl auch die in Arbeit befindliche VDI-Richtlinie 2770 zur digitalen Herstellerinformation ab. Für einige Branchen (gerade ältere Industrieanlagen sind in der Regel auf Papier dokumentiert) ist das auch sicher ein Fortschritt. Aber natürlich geht viel mehr.

Intelligente Information

Technische Dokumentation lässt sich viel präziser modularisieren. In vielen Redaktionen wird das bereits heute betrieben, v. a. als Basis des Variantenmanagements: Die Filterung nach Zielgruppen, Sprachen, Gerätevarianten findet heute bereits statt und zwar beim Publizieren von Dokumentvarianten.

In einer Industrie-4.0-Umgebung lässt sich diese Filterung zum Lesezeitpunkt hin verlagern. Damit werden gezielte Abfragen möglich, die dem Anwender die von ihm benötigte Information passend zu seiner aktuellen Aufgabe bereitstellen.

Dazu werden Metadaten benötigt, die die einzelnen Informationsmodule klassifizieren und identifizieren. Zuordnung zu Hersteller, Gerät, Variante, Komponente und Funktionsgruppe sind ebenso entscheidend wie Sprache, Zielgruppe und Informationstyp. Außerdem erfordert die Integration ein Auslieferungsformat, das sich embedded, mobil und am Schreibtisch sauber anzeigen lässt. Standardisierung ist nötig, damit sich die Dokumentation unterschiedlicher Hersteller zu einer Gesamtinformation integrieren lässt.

Bei der tekom arbeiten wir an einem solchen Standard, dem iiRDS. Die Arbeitsgruppe hat ihre Zwischenergebnisse auf der tekom-Jahrestagung vorgestellt. Der Standard soll Mitte nächsten Jahres verfügbar sein.

Wo am Ende die Informationen bereitgestellt werden, ob direkt beim Komponentenhersteller, beim Anlagenbauer, vor Ort beim Betreiber der digitalen Fabrik oder direkt auf der Komponente, ist dabei offen. Ebenso ist offen, ob die Information auf einem eigenen Content Delivery Server, einem integrierten Webservice (der zum Beispiel über den doctima ContentConnect mit Inhalten versorgt wird) oder als Informationsbausteine in einem Asset Management System wie SAP AIN zu liegen kommen. Das abstrakte Konzept der Verwaltungsschale erlaubt hier viele Wege zu gehen.

Die Idee, dass alle (bleiben wir realistisch: möglichst viele) Ersteller von Technischer Information ein gemeinsames Format bereitstellen, um dem Anwender einen integrierten Wissensschatz zu einem aus vielen Komponenten bestehenden System bereitzustellen, erscheint mir auch ohne den direkten Bezug zu Industrie 4.0 ein absolut erstrebenswertes Ziel zu sein – weil es u. a. zu Verbesserungen für das leidige Thema Zulieferdokumentation bringen kann. In der Denkweise des RAMI 4.0 lässt sich die Dokumentation von der untersten Ebene mit PDF-Dokumenten als „Assets“ auf die vierte Ebene, das Information Layer, mit Content-Delivery-Diensten als funktionaler Teil der übergreifenden Verwaltungsschale aufwerten.

Ich bin sehr gespannt auf die kommenden Entwicklungen und wie sich das iiRDS-Format in der Praxis bewähren wird – und auf Ihre Meinung. Wie sind Ihre Erwartungen bezüglich der Digitalisierung der Arbeitswelt? Diskutieren Sie mit uns in den Kommentaren!

Lasten- und Pflichtenhefte – der Erfolg entscheidet sich am Dokumentkonzept

Vorgefertigte Lastenhefte wollen viele. Aber wären die sinnvoll?

Vorgefertigte Lastenhefte wollen viele. Aber wären die sinnvoll?

Seit gut zehn Jahren bin ich in Unternehmen unterwegs, um mit Entwicklungsabteilungen einen für die Ingenieure oft lästigen Dokumenttyp auf Vordermann zu bringen: Lasten- und Pflichtenhefte. Egal wohin ich komme, hegen meine Kunden eine ganz bestimmte Hoffnung. Eine Hoffnung, die sich in zwei Fragen ausdrückt:

Frage 1: Gibt es Normen, die man unbedingt beachten muss, um ein wirklich sauberes (und damit vollständiges und möglichst rechtssicheres) Lastenheft oder Pflichtenheft zu erstellen?

Und Frage 2: Gibt es nicht allgemeingültige Dokumentvorlagen mit allen benötigten Inhalten – am besten downloadbar aus dem Web? Und dann ist alles gut?

Unerfüllbare Hoffnungen

Diese Hoffnung muss ich regelmäßig enttäuschen. Leider – könnte man erst einmal meinen.

Natürlich gibt es Normen, die Lasten- und Pflichtenhefte thematisieren, zum Beispiel die DIN 69901. Aber diese Normen helfen bei den Fragen, die die Unternehmen umtreiben, nicht wirklich weiter. Normen kann man vor allem Definitionen entnehmen, was ein Lasten- oder Pflichtenheft ist, was als Gliederung eventuell sinnvoll ist und wie man diese Dokumente in Entwicklungsprozessen am besten einsetzt. Gewonnen ist damit nicht viel.

Dasselbe gilt für downloadbare Vorlagen: Sie können einem einen ersten Eindruck geben, was vielleicht wichtig ist. Aber eine Dokumentvorlage und vor allem die darin enthalten Inhaltspunkte entspringen immer einem bestimmten Kontext und treffen nie passgenau zu. Oder sie sind so allgemein gehalten, dass sie im Grunde nichts aussagen.

Die gute Nachricht – Freiraum für passgenaue Dokumentkonzepte

Mit „Kontext“ ist das relevante Stichwort schon gefallen. Jedes Unternehmen arbeitet (egal ob Auftragnehmer oder Auftraggeber, egal ob Lastenheft oder Pflichtenheft) unter anderen Rahmenbedingungen. Produkte unterscheiden sich technologisch grundlegend, die Vertragspartner sind unterschiedliche, interne Dokumente benötigen andere Inhalte als Dokumente, die über Unternehmensgrenzen ausgetauscht werden. Abhängig davon, wer die Designverantwortung trägt, entwickeln Lasten- und Pflichtenhefte erst ihre eigentliche Gestalt.

Eine Lösung von der Stange – das zeigt mir die Praxis immer wieder ganz deutlich – kann es eigentlich gar nicht geben.

Genau hier aber liegt die große Chance für die Unternehmen. Und das ist die Botschaft, die die Miene meiner Kunden ganz schnell wieder aufhellt. Weil der Kontext hochgradig individuell ist, besteht große Freiheit in der Gestaltung von Lastenheften und Pflichtenheften. Ganz sicher keine Beliebigkeit, aber ein Freiraum, in dem man eine unternehmensspezifisches Dokumentenkonzept entwickeln kann. Ein Konzept, das dann wirklich funktionierende Dokumente ermöglicht.

Was so ein spezifisches Dokumentenkonzept ganz konkret ausmacht, möchte ich hier noch an drei Beispielen zeigen:

Beispiel 1: Es muss nicht immer viel sein

Dieses Konzept ist vor gut zwei Jahren in München entstanden. Ein Unternehmen der Schwerindustrie liefert als Auftragnehmer eine Presseinrichtung für eine große Stahlverarbeitungsanlage. Das spezifizierte Produkt ist für meine Vorstellungen riesengroß, das Pflichtenheft dazu ist aber maximal schlank geworden. Es ist wenige Seiten lang und macht zusammen mit dem Maschinenplan trotzdem eine vollumfängliche Leistungszusage an den Auftraggeber.

Der Kunde hat sehr aufgeatmet: Dass ein Projekt mit Pflichtenheft die Dokumentationsaufwände der Ingenieure, die ja sowieso schon unter hohem Zeitdruck arbeiten, vervielfachen würde – diese Befürchtung hat sich nicht bewahrheitet.

Beispiel 2: Ein Dokument, das skaliert

Genau hinsehen! Auf dem Weg zu einer passgenauen Dokumentkonzeption

Genau hinsehen! Auf dem Weg zu einer passgenauen Dokumentkonzeption

Ein Unternehmen für Fenster- und Fassadentechnologie definiert seinen Entwicklungsprozess für Innovationsprojekte neu. Damit die Entwicklung koordiniert abläuft, soll der Vertrieb als unternehmensinterner Auftraggeber ein Lastenheft schreiben. Das Problem an der bisherigen Praxis: Das Lastenheft des Vertriebs ist der Entwicklung zu unspezifisch, der Vertrieb möchte aber nichts vorgeben und spezifizieren, worüber er noch keine Aussagen machen kann. Eine klassische Patt-Situation.

Als Lösung haben wir ein Lastenheft konzipiert, das mitwachsen kann. In seiner ersten Fassung (das „Lastenheft light“) formuliert der Vertrieb die Produktidee und die zentralen Leistungsmerkmale des neu zu entwickelnden Produkts. Dieser Stand dient der internen Abstimmung. Erst wenn klar ist, ob sich dieses Produktkonzept technologisch und wirtschaftlich umsetzen lässt (und in diesem Bewertungs- und Aushandlungsprozess sitzt die Entwicklung mit am Tisch), wird ein „richtiges“ und umfassendes Lastenheft erstellt, das für die Entwicklungsabteilung die Vorgaben in relevanter Breite und Tiefe niederlegt.

Dass dieses Konzept aufgeht, ist konzeptionell vor allem der Gliederung der neuen Lastenheftvorlage zu verdanken. Sie kann angelehnt an den Fortschritt im Entwicklungsprozess von vorne nach hinten wachsen. Es ist als Lastenheft-Standard eine ganz individuelle Lösung entstanden, die sich durch ein hohes Maß an Flexibilität und Skalierbarkeit auszeichnet.

Beispiel 3: Antworten auf 1500 Anforderungen

Ein letztes Beispiel: Ein Automobilzulieferer bekommt von seinen Auftraggebern in schöner Regelmäßigkeit Lastenhefte vorgelegt, die 300 Seiten und länger sind. Um noch einmal eine Zahl zu nennen: Wir reden von 1200 bis 1500 Anforderungen.

Wie kann nun ein Pflichtenheft bzw. die Leistungszusage in so einem Szenario aussehen? Und zwar ohne dass als Pflichtenheft ein noch längeres Monsterdokument entsteht, das unsinnige Aufwände erzeugt? Denn immerhin sagt die reine Lehre – und auch die Auftraggeber aus dem Automobilsektor fordern es: Ein Pflichtenheft muss Antwort geben auf alle Anforderungen des Auftraggebers.

In diesem Fall entwickeln wir eine Lösung aus zwei Dokumenten:  Die Detailantworten stehen in einer Excel-Liste, die eine maximal kurze Antwort auf wirklich jede Anforderung gibt. Dazu kommt aber – und das war hier das Aha-Erlebnis – ein Rahmendokument, in dem der Auftragnehmer noch einmal losgelöst von dem Detaildokument seine Lösung und seine Leistungsfähigkeit konzentriert darstellt. Das zudem Punkte hervorhebt und anbringt, die ihm aus seiner Rolle heraus wichtig sind – und nicht nur solche, die der Auftraggeber aktiv nachfragt. Und das zu guter Letzt sogar – auch das ein Novum – den Auftraggeber in die Pflicht nimmt.

Seit diesem Jahr gehen alle „Antworten“ dieses Kunden auf diese Weise zurück an seine Auftraggeber.

Buchbar als Praxispaket Lastenhefte/Praxispaket Pflichtenhefte

Die konzeptionelle Anlage eines Lasten- oder Pflichtenheftes halte ich im Rückblick auf bestimmt 60 Beratungs-Einsätze als den wesentlichen Schlüssel zum Erfolg. Und das Schöne ist, dass man die Konzepte so auslegen kann, dass daraus ein wirklicher Standard entsteht – also Vorlagen und Definitionen, die für ganze Klassen von Projekten tragen und nicht nur für einen Einzelfall.

Sollten Ihnen diese Sorte Spezifikationsdokumente auch im Magen liegen: Schauen Sie sich doch einfach einmal unser ‚Praxispaket Lastenhefte/Praxispaket Pflichtenhefte‚ an. Ein bewährtes Verfahren, in dem wir schon ganz viele Unternehmen begleitet haben.

Denkblockaden oder Schreibmythen?

Christian Wymann [2016]: Schreibmythen entzaubern

Christian Wymann [2016]: Schreibmythen entzaubern

Falsche Vorstellungen können beim Schreiben oft mehr blockieren als ein schweres Thema oder stilistische Schwächen. Das ist uns in unseren Schreib-Coachings immer wieder aufgefallen. Dankenswerter Weise hat nun Christian Wymann die häufigsten Denkblockaden in einem kurzen Buch zusammengestellt. Denn immerhin: Solche „Schreibmythen“ (wie er sie nennt) können zum echten Karrierekiller werden, wenn sie nicht rechtzeitig „entzaubert“ werden.

Wymanns Buch versammelt je drei „Schreibmythen“ zu Autor, Schreibprozess und Dokument. Die so gesammelten „Schreibmythen“ sind selbstverständlich nicht vollständig, decken aber die häufigsten Missverständnisse ab, die es rund um das Schreiben so gibt. Jedes Kapitel startet mit einem kurzen Fragenteil, der dabei hilft einzuschätzen, ob man diesem „Mythos“ selbst anhängt. Der Autor streut zur Veranschaulichung der „Mythen“ viele Schreibbiographien von professionellen Autoren ein. Zum Ende eines Kapitels gibt Wymann noch kurze Tipps, wie man mit dem jeweiligen „Mythos“ umgehen kann, was sich gegen ihn tun lässt. Ich bezweifle zwar, ob sich eine eingefahrene Denkblockade durch die Lektüre des Buchs wirklich beseitigen lässt. Aber Wymanns Ratgeber kann den ersten Anstoß geben, um mehr über sich und seine Schreibgewohnheiten nachzudenken.

Das Buch beschäftigt sich im Prinzip nur mit dem akademischen Schreiben. Man sollte sich dadurch aber nicht abschrecken lassen. Denn die „Schreibmythen“ wirken auch bei anderen Formen des sachorientierten Schreibens. Für die Technische Redaktion sind sie mühelos übertragbar. Für Technische Redakteure und Redakteurinnen dürfte beim Lesen allerdings das durchgängig verwendete große Binnen-I ungewohnt sein. In der Hochschulwelt ist diese Schreibung mittlerweile verbreitet, in der Wirtschaft aber noch nicht angekommen.

Insgesamt ist „Schreibmythen“ ein lesenswertes Buch, insbesondere für den schmalen Preis von 12,99 €. Ich empfehle es all denen, die eben gerade nicht gerne schreiben. Gestört hat mich bei dem Buch eigentlich nur der Begriff „Schreibmythen“. Ein Mythos ist in meiner Sicht eine Erzählung, die zwar nicht unbedingt die reale, faktische Welt darstellt, aber eine innere Wahrheit wiedergibt. Das sind die hier genannten Schreibmythen aber nun gerade nicht. Deshalb werde ich auch weiter von „Denkblockaden“ sprechen.

Literatur: Christian Wymann [2016]: „Schreibmythen entzaubern. Ungehindert schreiben in der Wissenschaft“. Verlag Barbara Budrich, Opladen, Toronto

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

 

WARN OUT – Rechtssichere Anleitungen ohne Warnhinweise?

Warn out - Dietrich Juhl gibt sinnvolle Warnhinweise

Warn out – Dietrich Juhl gibt sinnvolle Warnhinweise

Neulich fand ich ein kleines Büchlein in meinem Postfach: „Warn Out. Konzept für sinnvolle Sicherheits- und Warnhinweise“. Darauf ein Zettel mit der Bitte, ob ich mir das mal anschauen könnte… „Oh nein, nicht schon wieder Warnhinweise…“, war – ich gebe es zu – meine erste Reaktion. Denn mir geht es nicht anders als vielen Technischen Redakteuren: Man liest viel, aber in der Praxis hilft das nicht unbedingt weiter. In diesem Fall kann ich aber sagen: Das Büchlein lohnt sich!

Viel warnen + auffällig warnen = rechtssichere Anleitung?

Juhl reagiert auf die allgemeine Verunsicherung der Technischen Redakteure, die unter dem ziemlich starken Druck stehen „rechtssichere Anleitungen“ – wie es so schön heißt – zu schreiben. Die Art und Weise, wie Normen klassischerweise umgesetzt werden, führt aber teilweise am eigentlichen Ziel vorbei. So wird nach dem Prinzip „lieber zu viel als zu wenig, denn sicher ist sicher“ ausgiebig gewarnt, was das Zeug hält, auch wenn es teilweise unnötig oder gar absurd ist. Hinzu kommt, dass die Warnhinweise standardmäßig in auffälligen Kästen gestaltet sind.

Beide Aspekte haben so ihre Tücken. Wird vor jeder auch kleinsten Gefahr gewarnt (man weiß ja nie, auf welche Idee Menschen so kommen könnten…), dann wird der Leser unter Umständen vom Wesentlichen abgelenkt und nimmt womöglich ernste Gefahren nicht mehr als solche wahr. Fühlt man sich als Redakteur verpflichtet, auf jede Gefahr hinzuweisen, kann man auch wunderbar an seiner Zielgruppe vorbei schreiben. Hinzu kommt die Gestaltung der Hinweise in auffälligen Kästen hinzu – die sind Juhl ein richtiger Dorn im Auge. Sie stören nicht nur den Lesefluss, sondern werden sogar immer wieder von Lesern einfach übersprungen.

Die Gleichung viel warnen + auffällig warnen = rechtssichere Anleitung geht also nicht auf. Was nun?

Grundidee: Richtig anleiten statt warnen

Juhls Konzept ist im Grunde ganz simpel und basiert auf zwei Hauptprinzipien:

  1. Richtig anleiten
  2. Sinnvoll warnen (aber nur dort, wo notwendig)

„Richtig anleiten“ bedeutet, dass Anleitungen nicht nur verständlich geschrieben, sondern auch didaktisch sinnvoll aufgebaut sein sollen. Hier bietet Juhl ein konkretes Modell („Handlungsanweisung mit Eskalation“), das sich in der Praxis eigentlich ganz gut umsetzen lässt:

  1. Anleiten
  2. Anleiten mit Bild
  3. Präzisierung, falls die Wahrscheinlichkeit besteht, dass der Anwender die Anleitung ungenau ausführt
  4. Betonung der richtigen Handlungsweise
  5. Verbot nahliegender Fehlhandlungen
  6. Benennung von Art und Quelle der Gefahr
  7. Warnung, was bei Nicht-Beachtung passiert

6. und 7. werden dann – wenn nötig – durch ein entsprechendes Warnzeichen und Signalwort ergänzt.

Warnungen sollen also möglichst im Handlungsschritt integriert sein. Juhl geht noch weiter und stellt klar, was alles NICHT in der DIN EN 82079-1 steht. Demnach:

  • müssen Warnhinweise nicht gemäß SAFE strukturiert sein.
  • müssen Warnhinweis nicht als auffälliger Kasten formatiert werden.
  • müssen Warnhinweise nicht unbedingt vor dem betroffenen Handlungsschritt stehen.
  • muss das Kapitel Sicherheit nicht vorwiegend Warnhinweise enthalten und die
    Informationen müssen nicht durch Warnsymbole hervorgehoben werden.

Neugierig geworden?

Neben dem eigentlichen Kern seiner These behandelt Juhl alle wichtigen Aspekte, die zu einer sicheren Anleitung beitragen. Auch die Zielgruppenanalyse als Ausgangspunkt aller Überlegungen kommt hier nicht zu kurz. Vieles hat man als Technischer Redakteur schon irgendwie einmal gehört oder gelesen, aber Juhl geht es nicht darum, die einzelnen Aspekte in aller Ausführlichkeit und wissenschaftlich zu behandeln, sondern um deren Zusammenspiel zu zeigen. Und das gelingt dem Autor.

Aus rein didaktischen Gründen ist die Integration der Warnhinweise in den Textfluss grundsätzlich sicherlich eine sinnvolle Empfehlung. Der Leser profitiert in vielerlei Hinsicht. Der Lesefluss wird nicht unterbrochen, und vor allem: der Inhalt der Warnhinweise wird als Bestandteil eines Handlungsschrittes wahrgenommen und verinnerlicht, was aus meiner Sicht in vielen Fällen mehr zum sichereren Umgang mit dem Produkt beiträgt als ein „aus dem Text ausgelagerter“ Warnhinweis. Aus Hersteller-Sicht ist es aber so, dass meistens doch die Textkürze und die Standardisierung im Vordergrund stehen, weshalb die Umsetzung von Juhls Konzept doch recht aufwändig werden könnte.

Und was die Gestaltung der Hinweise in Kästen und auch deren Aufbau betrifft, ist man doch überrascht, dass Juhl sich lediglich auf die DIN EN 82079-1 bezieht und die ANSI Z.535.6 völlig ausklammert. Denn auf der einen Seite ist es zwar sinnvoll, die Warnhinweise zu integrieren, aber demgegenüber steht in der Technischen Dokumentation das Bedürfnis nach Einheitlichkeit und Normung – auch im Hinblick auf Mehrsprachigkeit.

Ein wichtiges Anliegen von Juhl ist, dass Technische Redakteure selbstbewusst ihren didaktischen Kompetenzen trauen und sich darauf verlassen, dass am Ende eine rechtssichere Anleitung rauskommt. Diese Forderung nach Selbstvertrauen hinsichtlich der Schreibkompetenzen finde ich grundsätzlich richtig, denn blindes, Angst-gesteuertes Schreiben macht keinen Spaß und wird ganz sicher der Zielgruppe nicht gerecht. Dennoch: Wo rechtliche Konsequenzen im Spiel sind, wird sicherlich nicht jeder es wagen, sich ganz von den gängigen Verfahren zu distanzieren, auch wenn diese auf einer nicht ganz richtigen Auslegung der Normvorgaben beruhen.

Mein Fazit

Ich finde, dass jeder technische Redakteur das Buch gelesen haben muss. Denn es eröffnet neue Perspektiven und regt zum Nachdenken über das eigene Schreiben an, unabhängig davon, ob man den harten Kern seiner Thesen bejaht oder nicht. Das Zusammenspiel vonsw_juhl_sicherheit_v2_transp

  • sicheren Anleitungen
  • Kapitel Sicherheit
  • Warnhinweise

wird verständlich beleuchtet. Juhl gibt auch klare Hinweise für die konkrete Umsetzung seines Konzeptes. Man darf sich nur nicht vom emphatischen Ton und von der etwas eigenwilligen Seitengestaltung stören lassen.

Und mal ehrlich … Kompetenz hin oder her: Wenn man sich so manche Anleitung zu Gemüte führt, ist man doch schon froh, wenn es Warnhinweise überhaupt gibt …

Literatur: Juhl, Dietrich [2015]: Warn out. Konzept für sinnvolle Sicherheits- udn Warnhinweise. Juhl-Verlag, 68 Seiten.

Hinweis: Das hier besprochene Buch wurde uns vom Autor kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Autor hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Verständlichkeitsforschung! Transdisziplinär?

Verständlihckeitsforshcung - Überblick und Zusammenschau

Verständlichkeitsforschung – Überblick und Zusammenschau

Manchmal liegen Bücher bei mir länger zur Rezension auf dem Schreibtisch als mir lieb ist. Das kann ganz verschiedene Gründe haben. Im Fall von „Verständlichkeitsforschung transdisziplinär“ war es schlicht und einfach – Neugier. Immer wenn ich mit meinem Post beginnen wollte, stieß ich auf diesen einen Aspekt, den ich noch unbedingt vorher durchlesen wollte, oder jene interessante Information, die ich auf jeden Fall noch einmal nachschlagen musste. Lange Rede, kurzer Sinn: das Buch hat mich nachhaltig gefesselt; nicht unbedingt wie ein packender Roman, aber doch mehr als das bei Fachbüchern üblicherweise der Fall ist. Und erst jetzt habe ich mich so weit losreißen können, dass dieser Post erscheinen kann.

Verständlichkeit – ein alter Hut?

Das liegt natürlich auch am  Thema. Ich verrate wahrscheinlich nicht zu viel, wenn ich hier gestehe, dass Verständlichkeitsforschung seit langem ein Steckenpferd von mir ist. Allerdings habe ich in den letzten Jahren den Eindruck gewonnen, dass das Thema irgendwie zu Ende erzählt ist. Neuere Publikationen – so empfand ich das – variieren entweder lange Bekanntes oder beschäftigen sich mit Detailproblemen der kognitiven Text- und Bildverarbeitung, die sich nur schwer in die Praxis übertragen lassen.

„Ganz schön mutig!“ dachte ich mir deshalb, als Lutz Benedikt mir von seinem Buchprojekt erzählte. Und jetzt bin ich froh, dass er diesen Mut gehabt hat. Denn herausgekommen ist etwas lange Fälliges: Ein intelligent zusammengestellter Überblick über die diversen Strömungen der Verständlichkeitsforschung; ergänzt durch ein eigenes Modell der Verständlichkeit, das bestehende Modelle weiterentwickelt und gleichzeitig praxistauglich bleibt.

Verständlichkeit – neu gesehen!

Das allein wäre schon verdienstvoll genug. Neue Dynamik gewinnt das Thema aber auch durch den Blickwinkel aus unterschiedlichen Disziplinen und daraus, wie Benedikt Lutz zeigt, dass sich die Disziplinengrenzen in der Verständlichkeitsforschung auflösen. Man kann ihm nur zustimmen wenn er schreibt: „Häufig hat die Frage nach der jeweiligen Disziplin [in der Technischen Dokumentation; MN] gar keine Bedeutung mehr, wenn man gemeinsam nach guten Lösungen im Sinne der Anwender sucht.“

Und hier deutet sich auch der dritte Aspekt an, der dieses Buch zu einer gelungenen Lektüre macht: Benedikt Lutz schildert mit großer Sachkenntnis, wie das Thema Verständlichkeit in verschiedenen Berufsfeldern gehandhabt wird. Einziger Kritikpunkt: Bei dem Themenbereich der Softwareentwicklung (Kap. 9) hätte ich mir gewünscht, dass der Autor auch auf den Trend zur agilen Entwicklung eingeht – meiner Ansicht nach eine andere Art auf die Problematik einzugehen, dass es Entwicklern oft schwer fällt, verständliche und verbindliche Entwicklungsdokumente zu produzieren.

Transdisziplinäre Verständlichkeit – für wen?

Benedikt Lutz‘ Buch ist für mich mittlerweile die Einführung in das Thema Verständlichkeitsforschung – ein echtes Must-have. Ich kann das Buch allen empfehlen, die sich auf einem ernsthaften Niveau einen Überblick zum Thema Verständlichkeit verschaffen wollen. Wohlgemerkt: Das Werk ein Fachbuch und kein Ratgeber. Einfaches Rezeptwissen oder Tipps und Tricks sucht man hier vergeblich. Das will und soll das Buch aber auch nicht leisten.

Literatur: Lutz, Benedikt [2015]: Verständlichkeitsforshcung transdisziplinär. Verlag Vienna University Press, Wien, 406 Seiten. ISBN 978-3-84710-453-7

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.