Aller guten Dinge sind Menü 3

Diesmal werden wir fleischlos glücklich – mit Ei aber ohne Avocado.

Hühnchen und Reh haben in unseren beiden ersten Weihnachtsmenü-Vorschlägen die Hauptrolle gespielt. Heute wird es zur Abwechslung mal vegetarisch. Denn wer sagt denn, dass Weihnachten nur mit Braten und Soße komplett ist?

  • Die Vorspeise kommt diesmal von mir. Feldsalat ist ja eines der wenigen Blattgemüse, die man auch im Winter noch frisch im Garten ernten kann. Mit Birne, gerösteten Walnüssen und Honig-Balsamico wird daraus ein runder Einstieg.
  • Zum Hauptgang wird es exotisch: Mit der Gemüse-Couscous-Pfanne von unserem Software-Entwickler Daniel wird auch die größte Festgesellschaft auf leckere Art auch ohne Fleisch satt.
  • Der Abschluss ist im Vergleich dazu fast schon wieder traditionell. Dafür zaubern  Apfel-Zimt-Muffins von unserem Redakteur Clemens aber mit Sicherheit ein Lächeln auf das Gesicht ihrer Gäste.

Mittlerweile sind wir ja schon im Weihnachts-Endspurt. Wer sich bis jetzt noch nicht für ein Menü entscheiden konnte, der kann aber getrost noch bis nächste Woche abwarten. Zu guter Letzt kommt dann ein klassisches Menü mit Suppe und Braten.

tekom 2017, die Doku-Branche zu Besuch in Stuttgart

Vier Wochen ist es her, dass wir auf der tekom-Jahrestagung 2017 waren. Viel ist seitdem passiert, wir sind schon voll im konkreten Austausch mit Kontakten von der Tagung. Dazu beigetragen hat sicherlich unser iiRDS-Szenario mit unserem Roboterarm. Einerseits Eyecatcher, andererseits die anschauliche Darstellung, wie automatisierte Prozesse und Informationsflüsse in Unternehmen heutzutage ablaufen. Ausführlichere Infos und zusätzliche Videos dazu finden Sie auf unserer iiRDS-Seite.

Ansonsten wollen wir unsere Eindrücke der Jahrestagung schildern.

Benjamin Rauschenberger

Meine Gespräche während der Tagung gingen vor allem um die Themen Digitalisierung und Vernetzung von Abteilungen, Systemen und Tools in Bezug auf Content sowie Mobile Dokumentation. Das bedeutet konkret, dass ein Großteil der Besucher Fragen hatte wie „Wie kann ich denn unseren Content aus dem Redaktionssystem dem Vertrieb bereit stellen?“ oder „Unser Content und unsere Daten im CMS sind gut, aber mein Vorgesetzter will Teile davon auf der Website haben, weiß aber nicht wie“. Die Weiterverwendung von Content aus der Technischen Redaktion in anderen Unternehmensbereichen hat immer mehr eine große Bedeutung, weil unsere Kunden damit einen Mehrwert des Dokumentations-Contents generieren.
Und Mobile Doku spielte deshalb eine große Rolle, da ich zusammen mit dem Dresdner Kühlanlagenbau eine Partnerpräsentation gehalten habe, deren Thema „Sichere Service-Unterlagen per App“ war. Sicherheitsanleitungen und Gefahrstoffhinweise haben wir in einem Projekt ausgehend von Word ins CMS SCHEMA ST4 gepackt und generieren daraus eine App, welche die Service-Meister und -Monteure im Arbeitsalltag nutzen. Ein toller mobiler Einsatz von Fach-Content, der von den Anwendern und Auditoren sehr gelobt wurde und dieses Feedback teilten auch die Besucher des Vortrags. Daher hatte ich anschließend viele Gespräche dazu.
Weiteres Highlight für mich war die Vorstellung unseres Projektes mit Landis+Gyr. Gemeinsam haben wir den Landis+Gyr Infofinder entwickelt. Eine Doku-App, welche Fachpersonal unterstützt, die Industrie-Wärmezähler von Landis+Gyr zu installieren, zu parametrieren und zu warten. Das Marketing-Video zum Infofinder hatten wir an unserem Messestand laufen und es war Anlass für viele Gespräche.

Markus Nickl

Mein wichtigster Eindruck von der tekom 2017: Die Branche und die Redaktionsabteilungen öffnen sich. In den letzten Jahren gab es am Stand oft Detailfragen: „Können Sie auch CE-Kennzeichnung?“ – „Ja, natürlich. Wir machen alles für Sie, damit Ihre Dokumentation standardkonform und stimmig ist.“ In diesem Jahr waren die Fragen dagegen eher strategischer Natur: „Wie bekommen wir unsere Dokumentationsinhalte in die Schulungsunterlagen?“ oder „Wo können wir mit mobilen Apps einen Zusatznutzen generieren?“ Klar, auch darauf haben wir Antworten. Die lassen sich allerdings nicht mit einem Satz umreißen. Das macht die Gespräche intensiver, anspruchsvoller und (für mich) interessanter. Für die Technische Redaktion insgesamt lässt mich diese Beobachtung hoffen. Wir bewegen uns heraus aus dem Elfenbeinturm der klassischen Technischen Redaktion, öffnen uns zu anderen Abteilungen und fokussieren so auf die unternehmensweite Wertschöpfung unserer Arbeit.

Edgar Hellfritsch

Noch weniger als im letzten Jahr bin ich dazu gekommen, die Tagung als Gelegenheit zur Fortbildung zu nutzen. Aber ich empfinde das nicht als schlimm, denn stattdessen habe ich sehr viele interessante Gespräche an unserem Messestand geführt. Die Digitalisierungswelle hat unsere Branche erfasst, und um dieses Thema haben sich die meisten meiner Gespräche gedreht. Einige Unternehmen sind bereits tief in das „unbekannte Land“ eingedrungen – da geht es dann um Augmented Reality und Integration der Technischen Dokumentation in übergreifende Unternehmensprozesse. Andere Technische Redaktionen stehen gerade erst vor der Anschaffung einer CMS-Lösung, weil sie erkannt haben, dass sie eine solide Ausgangsbasis benötigen, um ihre Informationen in die digitale Welt publizieren zu können.
An zwei Veranstaltungen der Tagung war ich selber beteiligt: Im Showcase „Prototype Implementations of iiRDS“ durfte ich gemeinsam mit Sebastian Göttel von SCHEMA unseren ST4-iiRDS-CDS-Roboter-Durchstich vorstellen, und den Showcase Mobile Dokumentation habe ich mit Stefan Dierssen von DiNovum moderiert. Einige der sieben Vorträge hier haben beeindruckende Lösungen gezeigt, auch hier geht die Professionalisierung der Branche weiter.
Insgesamt war die Tagung bzw. die Messe ein großer Gewinn und freue mich schon auf das nächste Mal.

Johannes Dreikorn

Ganz viele Gespräche an unserem Stand habe ich zum Thema Content-Management-Systeme geführt. Im Rückblick auf die Tagung denke ich mir: Das ist kein Wunder. Denn auf dem Weg in die Digitalisierung ist für Unternehmen spätestens jetzt der Zeitpunkt erreicht, sich aus der file-basierten Verwaltung von Content zu lösen.
Sind sie zu spät dran, haben einige meiner Gesprächspartner gefragt. Da habe ich sie beruhigen können. Eigentlich ist jetzt ein sehr geschickter Zeitpunkt. Es gibt heute technologisch ausgereifte Lösungen, die ihre Tauglichkeit bewiesen haben. Und es gibt erfahrene Partner, die mit einem geschärften Blick für das Notwendige und Machbare beim smarten Übergang in die neue Welt helfen können. Ich freu mich auf jeden Fall schon auf die ersten Termine und Workshops in den nächsten Wochen.

Christian Hammer

Auch dieses Jahr kam ich nicht dazu auch nur einen Vortrag zu besuchen. Das klingt jetzt nicht so toll, ist aber natürlich eigentlich ein riesen Erfolg: Unser Messe-Stand war immer gut besucht und es blieb einfach keine Zeit für Vorträge. Der Standort für unsere dreitägige doctima-Außenstelle war wie auch in den vergangenen Jahre perfekt gewählt. Persönlich ist es natürlich immer schön, in Stuttgart auch die Leute mal wieder zu sehen, denen man das restliche Jahr über nur per Telefon begegnet. Die Mischung aus diesen Bekannten, neuen Interessenten und der Schar, die einfach nur unserem Roboter beim Stapeln zugeschaut haben, hat Spaß gemacht.

Clemens Mühlig

Die tekom Herbsttagung 2017 – eine Premiere für mich. Als Gast auf der tekom-Tagung war ich schon einige Male, ein ganz anderes Gefühl ist es jedoch für die eigene Firma die Fahne hochzuhalten. Diesmal ging es nicht nur darum, in die Messe selbst einzutauchen und den Puls der Branche zu spüren. Nein, dieses Mal hieß es, am Stand und im Workshop selbst tätig zu werden. Am Stand warteten viele interessante und v.a. intensive Gespräche mit Kunden und Kollegen aus aller Welt. Es macht einfach Spaß Kunden, die man sonst nur vom Telefon kennt, nun auch ein Gesicht zuordnen zu können. Nicht ganz unschuldig an den vielen Gesprächen war natürlich auch der Messeliebling, unser Demonstrationsroboter. An dem blieb gefühlt jeder Besucher irgendwann stehen und sah diesem begeistert bei seinem Treiben und (geplantem) Versagen zu.
Ein Highlight für mich war auch der Austausch in den beiden Workshops zum Thema Lasten- und Pflichtenhefte. Diese waren beide Male sehr gut besucht und scheinen einen Nerv der Branche getroffen zu haben. Ich durfte mit sehr motivierten Teilnehmern arbeiten sowie angeregte und auch für mich lehrreiche Diskussionen führen. Insgesamt war dies eine tolle Messe und die nächste kommt bestimmt!

Ulrike Hager

Für mich bot die Herbsttagung 2017 gleich mehrmals etwas Neues und Besonderes. Während ich im letzten Jahr zu meinem ersten Besuch noch privat auf der Tagung war und nur einen Tag Zeit hatte, kamen in diesem Jahr zwei volle Tage hinzu – und diesmal in großer doctima-Runde. Außerdem habe ich im letzten Jahr noch Vorträge besucht – in diesem Jahr haben Johannes Dreikorn und ich gemeinsam ein Tutorial durchgeführt. Zu einem Thema, das regen Diskussionsstoff bot: Was passiert mit Ihrem Redaktionsleitfaden, wenn Sie ein CMS eingeführt haben? Wir haben dazu viele anregende Gespräche am Stand geführt und das große Potenzial eines eingebetteten Leitfadens erkannt und können es kaum erwarten, das Ganze gemeinsam mit unseren Kunden zu realisieren. Was unseren doctima-Stand wohl am spannendsten machte (ja, neben Benny versteht sich), war der leuchtend orangene Roboterarm, der uns drei Tage lang kräftig unterstützte und große Augen bei den Messebesuchern verursachte. Ein großes Lob (und vor allem Bewunderung) an dieser Stelle für unsere IT und vor allem an Lisa. Dank des Roboters sind wir alle in Berührung mit dem Standard iiRDS gekommen, der ein großes Thema auf der diesjährigen Tagung war.
Mein Fazit zur Tagung: Alles in allem fühlt sich die Teilnahme an der Tagung wie ein Besuch bei der Großfamilie an – überall kennt man jemanden und kann sich zu unglaublich vielfältigen Themen weiterbilden, inspirieren lassen oder sie auch mal kritisch diskutieren. Und abends gibt es dann auch noch etwas Gutes zu essen und zu trinken.

Lisa Lippold

Obwohl mir die tekom-Tagung bereits seit einiger Zeit bekannt war, hatte ich dieses Jahr zum ersten Mal die Gelegenheit, im Rahmen meines Praktikums bei doctima daran teilzunehmen. Dabei war ich nicht nur als Besucher auf der Messe, sondern auch als Standpersonal tätig. Daraus ergab sich für mich ein guter Ausgleich zwischen spannenden Gesprächen bei uns am Stand und Vorträgen, die ich mir angehört habe. Für mich persönlich war dabei das Thema iiRDS besonders interessant.
Ich war allerdings nicht der einzige Neuzugang am doctima-Stand: mit dabei war auch unser Roboterarm, gesteuert über ein Arduino-Board und einen Raspberry Pi. Als eine der Projektbeteiligten war es schön für mich zu sehen, wie der Roboterarm Besucher angezogen hat und auf der gesamten Messe bekannt war – die Arbeit hat sich also gelohnt! Insgesamt war die tekom-Tagung für mich ein spannendes Erlebnis, bei dem ich sowohl interessante neue Kontakte geknüpft als auch bekannte Gesichter wiedergesehen habe.

Und Sie?

Wie war Ihr Eindruck der tekom-Jahrestagung dieses Jahr? Hatten Sie ähnliche Geprächsthemen? Wir freuen uns über Kommentare und tauschen uns gerne weiter dazu aus.

Nudge – Dokumentation mit Stups

Aufkleber an Straßenlaterne "Good News is coming"

War das ein Nudge für den Post?

Seit vorgestern steht fest: Richard Thaler erhält dieses Jahr den Nobelpreis für Wirtschaftswissenschaften. Damit wird der Vertreter einer „menschlicheren“ bzw. „psychologischeren“ Form der Ökonomie geehrt. Bekannt wurde Thaler unter anderem für die Technik des „Nudge“ (engl. für „Anstupsen“). Eine Form der Verhaltenssteuerung, die sich – meiner Ansicht nach – auch die Technische Dokumentation genauer ansehen sollte.

Was ist Nudging?

Als Ausgangspunkt stand bei Thaler die Beobachtung, dass Menschen sich nicht so ökonomisch rational verhalten, wie das die klassische Wirtschaftswissenschaft postuliert. So gibt es z. B. einen hohen Prozentsatz von Steuerzahlern, die ihren Lohnsteuer-Jahresausgleich nicht abgeben, obwohl sie mit einer deutlichen Erstattung rechnen können.

Bei Nudging handelt es sich nun um Techniken, mit denen durch relativ einfache Anreize das Verhalten von Menschen so gelenkt wird, dass sie die für sie vorteilhaften Entscheidungen auch umsetzen. Gebote, Verbote und ökonomische Anreize spielen dabei keine Rolle. Stattdessen sollen Menschen auf sanfte Weise dazu bewegt werden, das (aus individueller oder gesellschaftlicher Sicht) Richtige zu tun.

Ein Beispiel dafür ist die Förderpraxis für Wärmedämmung in Großbritannien. Obwohl Hausbesitzer durch Fördergelder bereits innerhalb eines Jahres einen effektiven Gewinn für sich realisieren konnten, wurde der Fördertopf nicht abgerufen. Thaler stellte fest, dass die meisten Leute den Aufwand scheuten, ihren Dachboden vor der Umbaumaßnahme aufzuräumen. Das Förderprogramm wurde in der Folge ein Erfolg, weil die Fördergelder mit einem preiswerten Entrümpelungsservice gekoppelt wurden.

Grundsätzlich ist Nudging natürlich eine Form der Manipulation. Denn die Verhaltenssteuerung kann prinzipiell auch für die Interessen der „Nudger“ und zum Schaden der Marktteilnehmer eingesetzt werden. Dieser Aspekt hat wiederholt zu Kritik geführt. Deshalb entwickelte Thaler drei Kriterien für ethische „Nudges“:

  • Transparent kommunizieren:
    Die Beteiligten müssen erkennen können, welche Maßnahmen eingesetzt werden
  • „Opt-out“ ermöglichen:
    Die Beteiligten müssen sich einfach und unaufwändig gegen einen Nudge entscheiden können.
  • Nutzen stiften:
    Die Maßnahme muss ein nutzbringendes Verhalten für das Individuum oder die Gesellschaft bewirken.

Braucht Dokumentation Nudging?

Was hat das Ganze nun aber mit Technischer Dokumentation zu tun? Bei genauerem Hinsehen, sind die Berührungspunkte ziemlich deutlich. Wie auch in den anderen Anwendungsfeldern von Nudging geht es bei Technischer Kommunikation um die Beeinflussung von Verhalten, und zwar

  • indem wir den Benutzern neue Verhaltensweisen (Handhabungen) beizubringen versuchen,
  • indem wir versuchen, Benutzer zu bewegen unter mehreren Alternativen eine vorteilhafte Verhaltensweise zu wählen (Tipps)
  • indem wir versuchen, Benutzer von schädlichen Verhaltensweisen abzuhalten (Sicherheitshinweise).

Genau genommen gehört hierher auch die Frage, wie wir Benutzer überhaupt dazu bewegen, die angebotene Dokumentation zu benutzen. Potenzial für Nudges gibt es also in der Technischen Dokumentation genug.

Bisher ist Dokumentation noch stark von einem rationalen Kommunikationsansatz geprägt, der Verbote (Sicherheitshinweise) und finanzielle Strafen (Verlust der Gewährleistung, Schäden am Gerät etc.) in den Vordergrund stellt. Gleichzeitig steht Dokumentation unter Druck, weil sie in der jetzigen Form nicht oder nur ungern gelesen wird.

Wie starten mit Nudging?

Aber wie sehen Nudges in der Technischen Dokumentation nun konkret aus? Bisher ist Nudging aus diesem Blickwinkel noch nicht betrachtet worden. Einige Grundprinzipien sind jedoch schon deutlich:

  1. Mache Dokumentation so bequem verfügbar wie möglich.
  2. Sorge für Belohnungen bei erwünschtem Verhalten.
  3. Nenne/fokussiere nur erwünschte Verhaltensweisen.
  4. Sorge dafür, dass Benutzer sich auch einfach gegen den Nudge entscheiden kann.

Ein Nudge kann dementsprechend eine ganz einfache Maßnahme sein. Ein Beispiel: Oft ist es schwierig, Supporttechniker außerhalb des Unternehmens zu motivieren, Aktualisierungen der Sicherheitshandbücher zu lesen. Liefert man nun die Dokumentation digital, bzw. mobil an die Serviceleute aus, so lässt sich ein einfacher Nudge dadurch einbauen, dass man den Benutzern beim Einloggen die Anzahl der ungelesenen neuen Dokumente zeigt. Ein kleiner Stups, der aber große Wirkung zeigen kann.

Noch mehr zu Nudges

Leitbilder „zwischen den Zeilen“ lesen

Es wird Zeit unsere Gewinnerin zu präsentieren. Wie auch beim letzten Mal gab es wieder eine Fülle von hochqualitativen Abschlussarbeiten, die an unserem doctima-Preis teilgenommen haben. Verdient gewonnen hat Dr. Simone Burel mit einer linguistischen Dissertation zu Unternehmensleitbildern. Mittlerweile hat sie sich selbständig gemacht und ist Inhaberin und linguistische Beraterin bei LU-Linguistische Unternehmenskommunikation. In den Bereichen Organisationskommunikation, Genderlinguistik und Trendforschung berät sie nationale Konzerne, KMU und Bildungsorganisationen tätig. Ihr Arbeitsschwerpunkt liegt in der Analyse und Messung der sprachlichen Kommunikation von Organisationen sowie der Aufdeckung verborgener bzw. neuer Bedeutungen. Aber lassen wir sie selbst zu Wort kommen.

Unternehmen, Organisationen und Kommunen verschenken jedes Jahr Millionenbeträge ihres Marketingbudgets durch, Pardon, Nonsens-Kommunikation oder Kommunikationsverlust, da sie sprachliches Wissen über sich oder ihre Zielgruppen nicht effektiv auswerten. Es ist ja nur ein Text, die harten Fakten zählen…

Was wäre, wenn die Wörter im Geschäftsbericht, in Werbeanzeigen, auf der Homepage, der Karriereseite, in Mitarbeiterumfragen oder Social-Media-Kommunikationen darüber entschieden, ob die Kommunikation gelänge oder nicht?

Linguistische Untersuchungen konnten beispielsweise bestätigen, dass es mitunter an der Wortwahl liegt, ob Krisengespräche oder Stellenausschreiben kommunikativ erfolgreich beendet wurden, denn Sprechen und Denken hängen unmittelbar zusammen. Adjektive wie ehrgeizig oder analytisch sprechen eher Männer, empathisch und kommunikativ eher Frauen an, da wir unterbewusst, wo die Sprachverarbeitung stattfindet, doch noch an Stereotypen hängen bleiben. Es macht einen Unterschied, von Belegschaft oder Mitarbeiter zu sprechen. Es macht außerdem einen Unterschied, ob ein Unternehmen oder quasi jedes Unternehmen das Wort Nachhaltigkeit nutzt.

Sprache ist das primäre Medium, über das wir Welt und Wissen (er-)fassen und vergegenständlichen, werden im Business jedoch traditionell als Soft Skills wahrgenommen („das war doch nur ein dummer Spruch“), entscheiden jedoch nachweislich mit über den Erfolg – sei es in einer Paarbeziehung oder einem Wirtschaftsunternehmen. Letztlich ist es doch die Macht der Worte und deren anhaltende Erinnerung, durch welche Interaktionen gelingen oder nicht. Und: Wissen ist nicht Macht, sondern erst angewandtes (Sprach-)Wissen. Die konkreten Auswirkungen einer reflektierten Wortwahl auf die Performance von Unternehmen zeigen sich auch langfristig noch in verringerten Vertriebskosten, Effizienzsteigerungen in der allgemeinen Korrespondenz, Imageverbesserungen, überzeugenderer Darstellung der Produkte, längerfristiger Kundenbindung sowie besserer Kundeninteraktion.

Es fehlte bislang jedoch an solider linguistischer Begleitung und Interaktion, um Unternehmen auf der Basis neuester linguistischer Forschungsergebnisse und automatisierter Textanalysen sprachlich voranzubringen. Diese Lücke nutzten dagegen viele semi-linguistische Ratgeber oder Praktiker ohne linguistische Vorbildung.

Ziel meiner Dissertation war es daher, auf der Basis von 465 Unternehmenstexten, die in der externen Image-Kommunikation verwendet werden – genau, Leitbilder, Mission Statements, Mission, Visionen, Imagebroschüren und wie sie alle auch heißen (dass hier eine große Heterogenität innerhalb der Bezeichnungskonventionen herrscht und ein Leitbild nicht gleich ein Leitbild ist, sei vorausgeschickt) – ein Kompendium passgenauer Erfahrungswerte anzubieten, das zur authentischeren Kommunikation beiträgt, denn die Wirkungsweisen von sprachlichen Zeichen müssen in effektiv kommunizierenden Organisationen von Anfang an mitgedacht werden. Auf ausgetreten Sprachpfaden kommt man nicht zu neuen Denkzielen.

Mich interessierte vor allem, welche Keywords, Themen und rhetorische Strategien Unternehmen anwendeten, um über sich schriftlich zu kommunizieren, sich dabei voneinander unterschieden oder einander glichen. Als untersuchenswerte Unternehmen wurden von mir die DAX-30-Unternehmen, d.h. die 30 deutschen Unternehmen mit der größten Marktkapitalisierung und Hauptsitz in Deutschland (BASF, SAP, Siemens, Commerzbank etc.) im Zeitraum von 2008-11 ausgewählt.

Gleiche unter Gleichen

Die Arbeit deckte u.a. ein Paradoxon auf: Einerseits geben alle Unternehmen vor, unverwechselbar, besonders oder einzigartig sein. Andererseits gleichen sich ihre sprachlichen Versuche diesbezüglich sehr stark. Das relativ uniforme Wording erstreckt sich von substantivischen Hochwertwörter (Verantwortung, Nachhaltigkeit, Respekt etc.) mit adjektivischen Partnerwörtern (nachhaltig*, gesellschaftlich*, erfolgreich* etc.), Verben (schaffen, erleben, gestalten etc.) bis hin zu sogenannten semantischen Leerformeln wie Zukunft gestalten oder Verantwortung übernehmen. Leer sind sie deshalb, da alle sie benutzen und wir ihnen daher keine besondere Bedeutung mehr zumessen als reine Werbung.

Auf Satzebene zeigte sich ein ähnliches Bild: wir-Formeln mit den Verben sein oder bilden (wir sind fair, offen, erfolgreich etc.) komplettieren den kurzen parataktischen Satzaufbau, der den starken Bekundungscharakter der Texte unterstützt.

Auf der Inhaltsebene konnten insgesamt 14 Themen, die durch 49 Subthemen ausdifferenziert werden, erarbeitet werden, die scheinbar prototypisch für die Unternehmenskommunikation nach außen sind, u.a. Verhaltenseigenschaften wie Respekt, Integrität, Ehrlichkeit, Fairness, Vertrauen, Sicherheit, Transparenz und Qualität oder Normen wie Nachhaltigkeit, Verantwortung, Werte und Kultur.

Um ihre Glaubwürdigkeit rhetorisch zu stützen, verwenden Unternehmen musterhaft Bezugnahmen auf Umsatz-/Standort-/Mitarbeiter-Zahlen, Studien, ihre (Familien-)Tradition, Wettbewerber, Autoritäten (der Gründer, der Erfinder) sowie Klassifikationen mit sogenannten als-Phrasen (als leistungsorientiertes Unternehmen. Explizite Bewertungen mittels dimensionaler Adjektive (höchste*, größte*) werten Unternehmen dominant-verabsolutierend auf  –  bis hin zu hyperlativen Formen (globalstes Unternehmen).

Praxistransfer − Die Linguistische Unternehmensberatung LU

Die Dissertation wurde somit zu einem profunden Sammelwerk an Sprachmustern, die es (nicht) zu nutzen gilt, wenn authentisch kommuniziert werden soll. Mit diesem Wissen sind Unternehmen in der Lage, sich selbst aus Mitarbeiter- oder Kundenperspektive zu betrachten und eine reflektiertere Sprachwahl anzustreben.

Im Jahr 2015 entstand aufbauend auf den Dissertationsergebnissen die erste linguistische Unternehmensberatung LU – Linguistische Unternehmenskommunikation, die den beschriebenen wissenschaftlichen Service von der (maschinellen) Textanalyse mit dem LU-Tool in Form von Studien bis hin zu Sprach-Workshops oder individuellen Sprach-Guidelines anbietet. Breite Presserezeption und Kundenzustrom belegen die entsprechende Nachfrage – und bestätigen letztlich: es lässt sich eine Korrelation von Sprachverwendung und Unternehmenserfolg empirisch nachweisen.

Wissen, Medien und der ganze Rest

Jaki/Sabban (Hrsg.): Wissensformate in den Medien - Cover

Wissensformate in den Medien – Cover

Wenn man sich tagein, tagaus mit Fragen des Wissenstransfers und der Wissensdokumentation beschäftigt, dann freut man sich über einschlägige Forschungsliteratur. Denn leider wird das Thema Wissen in der Linguistik nicht immer so intensiv behandelt, wie es in einer Wissensgesellschaft sinnvoll und notwendig wäre.

„Wissensformate in den Medien“ versucht hier einen Beitrag zu leisten. Die Herausgeberinnen dokumentieren mit den gesammelten Aufsätzen die gleichnamige Tagung, die 2015 in Hildesheim stattgefunden hat. Ziel ist es, „Sichtweisen der einzelnen Disziplinen und Arbeitsfelder zusammenzubringen“. Bleibt zu entscheiden, ob das auch gelungen ist.

Das Buch versammelt Aufsätze verschiedener Autoren zu einem breiten Themenspektrum. Diese Aufsätze sind nach Medien in drei Bereiche gruppiert „Print“, „Fernsehen“ und „Neue Medien“, zwei einführende Aufsätze ergänzen das Inhaltskonzept. Thematisch spannen die einen breiten Bogen von Kinderbüchern über Infotainmentsendungen und bis hin zu Wikipedia-Artikeln. Und natürlich darf auch die Sendung mit der Maus nicht fehlen. Neben unterschiedlichen Zielgruppen für die Wissensangebote (Kinder, Patienten) enthält der Band auch Ergebnisse aus anderen Sprachen und eine kontrastive Studie zu englischen und deutschen Titeln von Wissensdokus im Fernsehen.

Bei aller thematischen Breite sind aber auch die Lücken auffällig; mich haben sie gestört. Bei der Auswahl der Medien lässt „Wissensformate“ große Lücken, gerade auch bei aktuellen Entwicklungen: Ich hätte mir zumindest ein, zwei Beiträge zu Hörbüchern, Rundfunksendungen oder Onlinetrainings erhofft. Der Bereich „Neue Medien“ fällt mit zwei Aufsätzen extrem schmal aus und diese beiden Beiträge beschränken sich zudem auf seit langem etablierte Online-Angebote. Hier hätte ich mir etwas zu Plattformen wie YouTube oder Twitter oder zu neuen Formaten wie Sprachlern-Apps erhofft.

Auch die betrachteten Zielgruppen sind dann gar nicht so vielfältig wie sie im ersten Moment daherkommen. Innerbetriebliche Wissenformate, Senioren, Menschen mit kognitiven Einschränkungen (die Forschungsstelle für leichte Sprache sitzt im Tagungsort Hildesheim) – zu viel bleibt ohne Not ausgespart. Und auch das fremdsprachliche Spektrum will nicht recht überzeugen. Englische und französische Wissensformate sind zwar interessant, aber etwas mehr interkulturelle Bandbreite (z. B. japanische, chinesische, arabische oder türkische Angebote) hätte hier gut getan.

Die Beiträge an sich sind solide, aber nicht spektakulär. Oft beschäftigen sie sich mit Detailfragen (Bilder-Sachbücher, einzelnen TV-Sendungen). Das ist der Publikationsform Aufsatz zwar durchaus angemessen, aber letzten Ende entsteht so ein Eindruck der Beliebigkeit. Der Band versammelt Beiträge ohne einen größeren Rahmen zu bieten und ein Phänomen aus verschiedenen Blickwinkeln zu beleuchten. Der Band ist wahlweise zu breit oder nicht breit genug angelegt. Für eine Darstellung der Bandbreite medienlinguistischer Forschung sind die thematischen Lücken zu eklatant; die behandelten Themen untereinander zu ähnlich. Andererseits ist das thematische Spektrum aber zu breit, um ein durchgehendes Thema durch verschiedene Blickwinkeln eine zusätzliche Dimension zu geben. Größere thematische Breite oder stärkerer Fokus; jede dieser Strategien hätte dem Buch gut getan. Mit der jetzigen Konzeption bleibt man jedoch – trotz der an sich lesenswerten Beiträge – seltsam unbefriedigt zurück.

Literatur:  Sylvia Jaki/Annette Sabban [Hrsg. 2016]: Wissensformate in den Medien. Analysen aus Medienlinguistik und Medienwissenschaft. Reihe Kulturen – Kommunikation – Kontakte. Bd. 25. Frank & Timme Verlag für wissenschaftliche Literatur, ISBN: 978-3-7329-0201-9.

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Was tun mit dem Fachwort?

„Responder“, „conversion“ – manchmal sind Fachwörter ein Problem.

Fachwörter sind immer ein Thema, wenn es darum geht, wie man verständlich und prägnant schreibt. Kaum ein Ratgeber kommt ohne den Fachwort-Tipp aus. Doch mal ganz ehrlich: Wie macht man das denn, Fachwörter zu vermeiden?

Ist das denn nötig?

Bevor man sich aber daran macht, alle Fachwörter zu vermeiden, sollte man sich vielleicht erst einmal klar darüber werden, warum es Fachwörter überhaupt gibt bzw. was wir mit ihnen erreichen wollen. Fachwörter sind im Prinzip eine Art Abkürzung: Sie verdichten einen genau definierten Sachverhalt. Deshalb ist ein Fachwort auch immer die beste Lösung, wenn wir Texte für Fachleute schreiben. Denn Fachwörter sind: präzise und kurz, also genau das, was wir bei unseren Texten erreichen wollen.

Schwierig wird es erst dann, wenn unsere Leser keine Fachleute sind. Im ersten Moment denkt man sich vielleicht: „Das ist doch offensichtlich, ob sich ein Text an Fachleute richtet!“ Tatsächlich gibt es auch zwischen Fachleuten manchmal Missverständnisse. Zum Beispiel hat mir gegenüber einmal ein Sachbearbeiter in einer Kommune behauptet, alle seine Leser seien Fachleute, denn der Brief geht nur an Ärzte. Schade nur, dass seine Fachwörter aus dem Steuerrecht sind. Die Ärzte sind in diesem Fall also ebenso Laien wie beispielsweise ein Fabrikarbeiter. Denn genau wie wir alle Ausländer sind, fast überall; genauso sind wir auch alle Laien – bei fast jedem Thema.

Und wenn es nötig ist?

Für Fachleute ist Fachwortschatz also kein Problem; hier werden unsere Texte unverständlicher, wenn wir auf Fachwortschatz verzichten. Was tun aber, wenn wir für Laien schreiben? Sollten wir dann auf Fachwörter verzichten? Die Antwort lautet: Nein. Natürlich ist es sinnvoll genau zu überlegen, ob ein Fachwort für die Zielgruppe verständlich ist. Und natürlich ist nicht jedes Fachwort notwendig. Aber: Auf Fachworte sollten Sie immer dann nicht verzichten, wenn

  • Ihre Leser ein gemischtes Publikum aus Laien und Fachleuten sind oder
  • das Fachwort in Ihrem Text häufig auftauchen wird.

Denn wenn Sie in diesen Fällen auf Fachwörter verzichten, dann wird ihr Text nur unnötig lang und unpräzise. Worauf Sie andererseits immer verzichten können, ist Fachjargon.

Wie umgehen mit dem Fachwort?

Wenn nun Fachwörter in einem Laientext sinnvoll sind, wie geht man dann am besten damit um? „Erklären“ – schreiben viele Stilhandbücher lapidar. Aber wie? Zunächst einmal gilt: So kurz wie möglich. Wenn es ein besonders wichtiges Fachwort ist, bei dem es darauf ankommt, dass Laien auch Bedeutungs-Feinheiten verstehen, kann man sich zwar ruhig ein wenig mehr Raum für die Erklärung gönnen. Dann aber gerne mit Beispielen. Denn viele Leser lernen besser durch Beispiele als durch Erklärungen.

Eine wichtige Frage ist auch, wo man das Fachwort erklären sollte. Jedes Mal, wenn es erwähnt wird? Das wird schnell ermüdend. Nur bei der ersten Erwähnung? Problematisch wenn die Texte ­– wie zum Beispiel Gebrauchsanleitungen – nicht sukzessive von Anfang bis Ende gelesen werden, sondern die Leser mitten im Text einsteigen. Aus unserer Sicht ist deshalb die Masterlösung eine Kombination aus drei Elementen:

  1. Einem Glossar, das jeden Fachbegriff ausführlich erklärt. Hier kann man sich entweder schnell den Fachwortschatz des Textes insgesamt aneignen oder bedarfsweise nachsehen.
  2. Einer kurzen Erklärung, wenn das Fachwort zum ersten Mal erwähnt wird. Das zeigt Laien, worum es in etwa geht und lässt sie einschätzen, ob sie den Begriff verstehen.
  3. Einem kleinen Hinweis-Icon, mit dem jedes Fachwort bei jeder Erwähnung markiert wird. Es weist die Leser darauf hin, dass sie diesen Begriff im Glossar nachschlagen können. Dazu muss das Icon einerseits selbsterklärend sein, aber gleichzeitig unaufdringlich, damit es den Lesefluss nicht stört.

Klar, nicht in jedem Text lässt sich so ein ausgefeiltes System für Fachworte umsetzen. Aber bei längeren Sachtexten ist es das Mittel der Wahl, um Laien an den Text heranzuführen und Experten durch unnötige Erklärungen nicht über Gebühr zu strapazieren.

Schwere Kost – doch nahrhaft

Schwere Kost im ganz wörtlichen Sinn ist das Buch, das ich dieses Mal besprechen möchte. Mit 1030 Seiten bringt „Fachkommunikation im Fokus – Paradigmen, Positionen, Perspektiven“ immerhin fast eineinhalb Kilo auf die Waage. Nun ist schwere Kost an sich nicht schlecht und oft ja auch nahrhaft. Bleibt also die Frage zu klären, ob das auch bei diesem Buch so ist.

Was soll das?

Das Buch versammelt Aufsätze von über dreißig Wissenschaftlern und Wissenschaftlerinnen rund um das Thema Fachkommunikation. Als Laie mag ein solches Buch vielleicht befremden; Meine Kollegen haben mich jedenfalls ungläubig gefragt, ob ich das wirklich rezensieren will. Aber ja, das wollte ich und zwar aus mehreren – teilweise persönlichen – Gründen:

  • Fachkommunikation ist ein Thema, das mich seit langem beschäftigt und selten bekommt man ein derart breites Spektrum an einer Stelle geboten.
  • Das Buch ist ein Vertreter einer akademischen Textsorte, die leider und zu Unrecht langsam ausstirbt, nämlich eine Festschrift. In diesem Fall zum 60. Geburtstag von Klaus-Dieter Baumann, einem der herausragenden Experten in der deutschen Fachsprachenforschung.
  • „Fachkommunikation im Fokus“ ist Band 100 in der Reihe FFF /Forum für Fachsprachen-Forschung“, in der vor fast zwanzig Jahren auch meiner Dissertation erschienen ist.

Für mich also Gründe genug, um mir das Buch einmal näher anzusehen.

Was bietet es?

Das Buch versammelt Aufsätze zur Fachkommunikation mit ganz unterschiedlichen Schwerpunkten, zu verschiedenen Einzelsprachen und mit diversen methodischen Zugängen. Ein Schwerpunkt liegt in Arbeiten aus sprachvergleichender Sicht und aus der Übersetzungswissenschaft.

Die Themen sind zwar wissenschaftlich anspruchsvoll, im allgemeinen aber für Laien durchaus lesbar. Beispielhaft herausheben möchte ich hier einen Aufsatz von Kerstin Petermann (Leipzig), in der sie die Rolle des journalistischen Interviewers aus Sicht der Fachkommunikation untersucht und so die widersprüchlichen Anforderungen an den Interviewer als Fragenden und als Vertreter des Publikums herausarbeitet. Sie modelliert Interviews als Form des Wissenstransfers und belegt dieses anhand eines Korpus. Diese Modellierung hat durchaus praktische Konsequenzen, z. B. widerspricht  sie  der verbreiteten Forderung nach einem „Gespräch auf Augenhöhe“, da in Interviews als Wissenstransfer automatisch eine asymmetrische Situation (Experte/Laie) angelegt ist.

Auch als Praktiker lassen sich dem Buch also neue Denkanstöße abgewinnen. Dennoch ist diese Stärke des Buchs – die thematische, einzelsprachliche und methodische Vielfalt – aus Sicht des fachlich interessierten Laien aber auch das größte Manko des Buches. Wer sich das Themenfeld Fachkommunikation neu erschließen möchte, wird von der Vielfalt der Perspektiven und Forschungsansätze vermutlich überfordert werden. Man sollte schon über eine solide Grundlage in der (linguistischen) Fachsprachenforschung verfügen, um das Buch sinnvoll nutzen zu können.

Wer sollte es lesen?

„Fachsprachen im Fokus“ ist sicher nichts für Praktiker, die einfach nur eine schnelle und effiziente Lösung ihrer Alltagsprobleme suchen. Auch Einsteiger in das Gebiet der Fachsprachenforschung werden mit dem Band wohl eher überfordert sein. Für Leute wie mich, die sich gerne einmal mit den wissenschaftlichen Grundlagen Ihres Fachs beschäftigen und sich über den aktuellen Stand der Diskussion informieren möchten, ist dieses Buch ein echtes Geschenk – ein Geschenk, das mich sicher noch öfter beschäftigen wird.

Literatur:  Kalverkämper, Hartwig [Hrsg. 2016]: Fachkommunikation im Fokus. Paradigmen, Positionen, Perspektiven, Reihe FFF – Forum für Fachsprachen-Forschung, Bd. 100, Verlag Frank und Timme, Berlin. ISBN 978-3-7329-0214-9 .

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Usability und Technische Dokumentation – aus einem Guss

Das Buch, das ich mir heute vorgenommen habe, füllt – zumindest dem Anspruch nach – eine Lücke, die ich seit Längerem beklage: Technische Dokumentation und Produkt gleichermaßen aus dem Blickwinkel der Usability zu betrachten. Die Autorin Getrud Gründwied ist Professorin für Technische Dokumentation und Usability an der Hochschule München. Sie weiß also, wovon sie schreibt. Aber: Ist das Buch auch für Praktiker verwendbar?

Inhalt

Grünwieds Buch ist als Handbuch angelegt. Es verspricht damit Entwicklern, IT-Spezialisten und Technischen Redakteuren einen strukturierten Einstieg in das weite Themenfeld der Usability. Und ich muss sagen das gelingt auch voll und ganz. Ausgangspunkt ihrer Einführung ist für Grünwied der zunehmende Trend zur Digitalisierung von Produkten und Dienstleistungen. Im ersten Moment erschien mir das ein wenig weit hergeholt und mich beschlich eine leichte Ahnung von Buzzword-Dropping. Schließlich ist Usability in der  Dokumentation schon seit den Achtzigern ein Thema. Aber Grünwied legt anschaulich und plausibel nahe, wie Usability unter den Bedingungen der Digitalisierung zu einem entscheidenden Erfolgsfaktor wird, der sich weder bei Produkten noch bei der Produktkommunikation noch länger ignorieren lässt.

Die weiteren Informationen baut Grünwied dann didaktisch sinnvoll auf. Nach einem Grundlagen-Kapitel, das die verschiedenen Aspekte der Usability darstellt, zeigt sie die verschiedenen Prozessmodelle, in denen heute Produkte, Software und Technische Dokumentation entwickelt werden. Besonders wichtig war mir das darauffolgende Kapitel zu Nutzer- und Nutzungsforschung. Ich beschäftige mich seit langem damit und kann sagen, dass ich dieses Thema selten so strukturiert dargestellt gesehen habe. Nach einem kurzen Kapitel zur Gestaltung (bzw. zu Methoden um eine nutzbare Gestaltung zu finden) geht sie schließlich auf die Evaluation der Usability ein.

In diesen drei Kernkapiteln schildert Grünwied anschaulich und doch dicht eine Vielzahl von Methoden aus dem Usability-Bereich. Hier bestünde allerdings die Gefahr, dass die Materie in theoretischen Erklärungen stecken bleibt. Deshalb ist es nur konsequent, dass die Autorin das Buch mit zwei Praxiskapiteln abschließt: Kapitel 8 beschäftigt sich mit dem Anwenden der Methoden und Kapitel 9 zeigt drei ausführliche Fallstudien.

Präsentation

Insgesamt ist das Buch ansprechend gestaltet mit einem klaren Druckbild und einer haptisch gefälligen Papierqualität. Grafiken, Tabellen, Text-Inserts mit Hintergrundinformationen lockern das Schriftbild des Handbuchs auf. Die Informationen sind dadurch in kleine überschaubare Einheiten gegliedert und lassen sich leicht erfassen. Zur Verständlichkeit tragen auch sogenannte „Checklisten“ bei. Dahinter verbergen sich aber keine Checklisten im eigentlichen Sinn, sondern Kurzzusammenfassungen in Listenform. Hilfreich, aber eigentlich hatte ich mir etwas Anderes erwartet von den Checklisten, die auf dem Buchcover versprochen wurden.

Ähnlich geht es mir mit dem weiterführenden Material. Mit Endnoten (ist das nicht ein wenig „Old-School“?), einem umfangreichen Softwareverzeichnis und einem kurzen, thematisch geordneten Literaturverzeichnis findet der Leser eigentlich ausreichend Anknüpfungspunkte zur Vertiefung. Aber wieso gibt es keine Hinweise auf Webressourcen? Empfehlenswerte Usability-Blogs gibt es zuhauf, genau wie Youtube-Channels und Twitteraccounts von Usability-Experten. Und weil wir schon beim Thema Webressourcen sind: Warum gibt es keine ergänzende Website, in der man sich interaktive Beispiele herunterladen kann und  die über eine Linksammlung bequem zu Webressourcen führt? Bei all diesen Punkten nimmt das Buch seinen Anspruch, Digitalisierung voranzutreiben, nicht ernst genug. In einer nächsten Auflage sollte der Verlag hier auf jeden Fall nachbessern.

Fazit

Grünwieds Buch hält definitiv, was es verspricht. Es schafft den Spagat sowohl Entwicklern als auch Technischen Redakteuren einen Einstieg in das mittlerweile ziemlich unübersichtliche Thema Usability zu geben. Zwar hätte man bei dem Buchkonzept – insbesondere bei diesem Thema – einer modernen, digitalen Zielgruppe in ihren Rezeptionsgewohnheiten noch mehr entgegenkommen können. Dem Gesamteindruck tut das aber keinen wesentlichen Abbruch – eindeutige Lese-Empfehlung für alle Neulinge im Themenfeld Usability.

Literatur:  Grünwied, Gertrud [2017]: Usability von Produkten und Anleitungen im digitalen Zeitalter. Handbuch für Entwickler, IT-Spezialisten und technische Redakteure. Mit Checklisten und Fallstudien. Publicis Verlag, Erlangen. ISBN 978-3-89578-464-4.

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

Durch Schreiben denken lernen

Auf meinem Schreibtisch liegt ein weiterer Band der UTB-Reihe „Kompetent lehren“ mit dem Titel „Schreibdenken“. Auf den ersten Blick erschließt sich mir nicht sofort, was damit gemeint ist. Denke ich nicht immer beim Schreiben? Versuche ich nicht immer, mir den passenden Stil und Inhalt zurechtzudenken? Doch genau das soll hier nicht gemeint sein. Vielmehr geht es darum, beim Schreiben weiterzudenken, um im Anschluss die Quintessenz der Gedanken herauszufiltern. Nach einem Selbsttest kann ich sagen: Klingt erstmal schwierig, ist es aber nicht! Hat man sich einmal darauf eingelassen, lässt sich ein kreativer Schub wahrnehmen. Ein Blick ins Buch erklärt uns auch, warum: Schreibdenken integriert beide Hirnhälften und das steigert unsere Denkleistung. Gar nicht mal so schlecht! Und dann – auf der Höhe unserer Denkleistung – fällt es natürlich umso leichter, das Wesentliche herauszufiltern.

Dank 20-jähriger Schreiberfahrung – sowohl als Autorin als auch Unterstützerin anderer Autorin – schafft Ulrike Scheuermann es, ihr Konzept verständlich rüberzubringen. Dabei kritisiert sie auch die derzeitige Schreibsituation in Deutschland allgemein und an Hochschulen. Man kann ihr nur zustimmen, wenn sie meint, dass bei uns vorrangig die Meinung herrscht, dass man „schreiben entweder kann – oder eben nicht“. Dabei können doch ein paar kleine Übungen täglich aus jedem von uns einen besseren Schreiber machen. Und diesen Ansatz verfolgt das vorliegende Buch durchgängig. Dabei schafft sie es, trotz Nennung klassischer Techniken eine Verbindung zum Selbstcoaching und der Psychologie herzustellen. In der Übung „Das innere Gespräch“ ist man dazu angehalten, mit zwei Facetten seiner selbst in Dialog zu treten: Wenn der „Mäkelige“ nichts mehr zu meckern hat und die „Gerneschreiberin“ kurz innehält, dann ist das Ziel erreicht: Man hat sich mit sich selbst auseinandergesetzt und kann mit frischen Ideen starten.

Es wird sogar philosophisch

Doch was bietet das Buch inhaltlich? Neben grundlegenden Informationen über das Schreibdenken wird auch eine Beziehung zu anderen Konzepten, wie z. B. Voice oder Flow hergestellt. Auch zeigt es auf, wie sich Schreibblockade und andere (Schreib-)Probleme lösen lassen. Besonders positiv fallen dabei die Schilderung des prototypischen Schreibprozesses und die Auflistung der Schreibtypen auf. Hat man erstmal festgestellt, ob man eher der „Drauflosschreiber“, „Versionenschreiber“, „Patchwork-Schreiber“ oder „Planer ist“ – mit allen Vor- und Nachteilen – fällt es viel leichter, sich auf das Schreiben einzulassen. Und auch Intro- und Extravertierte werden eingebunden. Letztere – eher als Schreibmuffel bekannt – werden dazu angehalten, Möglichkeiten zu suchen, über das Geschriebene zu sprechen. Ein weiterer großer Pluspunkt sind die vielen praktischen Übungen. Dabei wird vor allem auf Kürze udn Prägnanz wert gelegt. Längere Übungen (bis zu 30 Minuten) sind als Gruppenübungen angelegt. Das lässt den Arbeitsaufwand abschätzen und demotiviert nicht gleich vorab. Auch werden die Übungen in bestimmte Kontexte gesetzt. Welche Übung hilft z. B. wenn ich mich fokussieren will? Am Ende wird es sogar noch philosophisch: Schreibdenken lässt sich nämlich auch für das Selbstcoaching im Alltag anwenden. Und wie findet man am besten heraus, was man in den letzten 7 Monaten seines Lebens tun würde, als einfach mal draufloszuschreibdenken?

Fazit

Ich kann dieses Buch allen empfehlen, die einfaches Rezeptwissen in kurzweiliger Darstellung suchen. Viele Tipps helfen Ihnen sicherlich aus dem Schreibloch und zeigen neue Wege, sich auf das Wesentliche zu konzentrieren. Um tiefer in die Materie einzutauchen, eignet sich das Buch nicht – den Anspruch erhebt es aber auch nicht. Wer eine Abhandlung zum Thema Schreibdenken erwartet, wird sicher enttäuscht. Vielmehr nennt das Buch sein Konzept, geht dabei aber auch immer wieder auf andere Bereiche bis hin zum Selbstcoaching und privaten Schreiben ein. Genau darin liegt aber die Stärke des Buches: Es ist eine generelle Schreibhilfe.

Literatur:  Scheuermann, Ulrike [2016; 3. Aufl.]: Schreibdenken. Schreiben als Denk- und Lernwerkzeug nutzen und vermitteln. Verlag Barbara Budrich, Opladen und Toronto. ISBN 978-3-8252-4717-1.

Hinweis: Das hier besprochene Buch wurde uns vom Verlag kostenfrei als elektronisches Rezensionsexemplar zur Verfügung gestellt. Der Verlag hat keinerlei Einfluss auf den Inhalt dieser Besprechung genommen.

OneNote als Leitsystem für das Projekt-Management

Entspannt Projekte managen mit OneNote

Von Haus aus ist Microsoft OneNote ja eigentlich „nur“ eine Notizbuch-Software. Allerdings mit dem Potenzial zu sehr viel mehr. Wie wir hier im doctima-Blog schon mehrfach berichtet haben, lässt sich OneNote zu einer intelligenten Projektmanagement-Plattform ausbauen. In der doctima-Redaktion arbeiten wir als Team schon einige Jahre auf dieser Basis. In diesem Post möchte ich noch einmal zusammenfassen, was man tun muss, um dieses Mehr zu erreichen – und was für uns noch heute den Reiz dieser Lösung ausmacht.

Antwort auf zwei zentrale Fragen

Die Grundlage dafür, dass es mit OneNote als Projektmanagement-Plattform klappen kann, liegt in zwei einfachen Fragen. Fragen, die im Grunde für jede Systemeinführung gelten. Was möchte ich mit einer Lösung erreichen? Und wer soll damit arbeiten? Die Frage also nach der Funktion und den Zielgruppen.

Unser Glück war, dass wir diese Fragen bei unserem Start mit OneNote recht gut beantworten konnten. Wir brauchten eine Plattform, die uns bei der inhaltlichen Steuerung der täglichen Projektarbeit unterstützt. Und zwar für ein Team aus bis zu zehn Beteiligten, die allesamt professionell in der Technischen Redaktion unterwegs sind.

Damit war eine klare Grenze gesetzt zu Systemen, die vor allem planerische Aufgaben fokussieren oder auf Verwaltung und Controlling von Budgets spezialisiert sind wie beispielsweise Microsoft Project oder auf Projektmanagement spezialisierte Ticketsysteme wie redmine. Wir haben solche Systeme durchaus im Einsatz, aber als „Hilfssysteme“ und nicht als „Leitsystem“.

OneNote hat sich nach einigen Tests schnell als ein solches „Leitsystem“ angeboten, das unsere naturgemäß stark redaktionell und content-orientierten Bedürfnisse wirksam unterstützt.

Aufgeräumte Informationsstrukturen

A und O eines funktionierenden Datenbestandes sind passgenaue Informationsstrukturen. Strukturen, die über eine längere Zeit halten und in denen sich auch Neueinsteiger – nach einem initialen Briefing – sicher bewegen und zurechtfinden. Im Falle von OneNote betrifft das Thema Informationsstrukturen vor allem die folgenden drei Bereiche:

Die Grobaufteilung der Daten. Liegt alles, was über OneNote organisiert werden soll, in einem einzigen Notizbuch? Oder braucht es mehrere? – Wir als Team haben insgesamt sieben Notizbücher im Einsatz, von denen jedes eine definierte Klasse an gemanagten Daten und Informationen enthält.

Kurz ein Blick in drei dieser Notizbücher – anonymisiert, versteht sich: Herzstück unserer Architektur ist das Notizbuch mit den laufenden Projekten. Quasi als Fundament darunter managt ein weiteres Notizbuch projektübergreifende Informationen und Wissensbestände zu einzelnen Kunden (z. B. den Redaktionsleitfaden, CI-Ressourcen wie das Kundenlogo, spezielle kundenspezifische Arbeitsprozesse, die für jedes Einzelprojekt gelten). Und noch eine Ebene „grundsätzlicher“ angesiedelt ist eine Knowledge-Base in Form eines Notizbuchs, in der wir Fachwissen, das für uns als Team wichtig ist, strukturiert ablegen.

Wie der Screenshot zeigt: Für jedes Notizbuch verwenden wir eine jeweils eigene Form der Informationsstrukturierung. Das Notizbuch für Projekte ist (logischerweise) nach Projekten geordnet, die Knowledge-Base dagegen nach Stichworten.

Als dritte Ebene der Strukturierung arbeiten wir in jedem Notizbuch mit Templates, also vordefinierten Seitentypen. Hier ein Blick auf die Startseite eines Projekts. Wie Sie sehen: Die Aufbereitung der Daten ist strikt standardisiert, was – in diesem Fall zu dem gewünschten – Ergebnis führt, dass jedes Projekt aus Perspektive des standardisierten Informations-Managements unabhängig von seinem Inhalt erst einmal „gleich“ aussieht:

Strikt standardisiert – trotzdem einfach und flexibel

Stringente Standardisierung und Flexibilität müssen sich nicht ausschließen. Das ist etwas, das wir als Team an unserer Lösung mit OneNote sehr schätzen. Dabei kommt uns zugute, dass OneNote im Gegensatz zum Beispiel zu web-basierten Systemen wie Wiki-Plattformen oder Microsoft SharePoint wirklich „wiki“ (also schnell) zu bedienen ist. Es gibt keine Unterscheidung zwischen Frontend (User-Perspektive) und Backend (Verwaltungsperspektive). Brauche ich eine neue Seite, ist sie mit wirklich nur einem einzigen Mausklick angelegt. Natürlich – das System stellt nicht automatisch sicher, dass die Standards (siehe oben) eingehalten werden. Dafür ist der (und nur der) verantwortlich, der vor dem Rechner sitzt. Weil wir ein überschaubares und gut eingespieltes Team sind, ist das für uns kein Problem. In größeren Prozessen kann diese Offenheit von OneNote durchaus zum Fallstrick werden.

Was ich zum Stichwort „Einfachheit“ noch dringend empfehle: Eine Team-spezifische Registerkarte im Menüband von OneNote, die alle Formate, Funktionen und Makros an einer Stelle sammelt. So braucht niemand zu raten, was erlaubt ist und was nicht. Und es geht auch keine Zeit dafür verloren, irgendwo im Menüband von OneNote versteckte Einzelfunktionen zu suchen.

Fazit – Wir bleiben dabei

Ein Leitsystem für’s Projektmanagement mit einer Notizbuch-Software? Ja, das funktioniert. Und auch noch nach Jahren. Wir als Team sehen noch keinen Bedarf, uns grundlegend umzuorientieren. Natürlich hat OneNote deutliche Grenzen, gerade in den Bereichen Automation, Integration und Datenaggregation. Wir arbeiten deswegen wie gesagt mit einem Set an flankierenden Assistenz-Systemen und fahren mit dieser Aufstellung sehr gut.

Ich selbst bin über die Jahre zugegeben zu einem OneNote-Fan geworden – ich organisiere auch privat einiges über OneNote. Und gleich nachher werde ich OneNote wieder beruflich in einem Szenario „at its best“ nutzen. Es geht zu einem Kundenworkshop. Meine Fragen habe ich in OneNote dabei und dank des Caching-Mechanismus die gesamte Projekthistorie mitsamt meiner gewohnten Arbeitsumgebung, ganz so, als würde ich von meinem Schreibtisch im Büro aus arbeiten. Und wenn ich mit den Workshop-Ergebnissen zurückkomme, dauert es nur ein paar Sekunden, bis mein ganzes Team darauf Zugriff hat. Geht’s schneller?