TUG 2015 – Tag 1

Die TUG 2015 hat begonnen. Im Beitrag von gestern schrieb ich schon etwas, insbesondere über Anreise und das erste abendliche Zusammentreffen.

Gegen 9 Uhr eröffnete Steve Peter, der aktuelle Vorsitzende der TeX User Group, die Konferenz mit einigen einführenden Worten.

Die Themen des Tages waren:

  • PDF: semantisch anreichern und zugänglicher machen
  • Unicode: in TeX reinkriegen und verarbeiten
  • Vergangenheit und Zukunft von TeX, LaTeX und Schriften
  • Neuigkeiten und Ankündigungen

Werfen wir einen Blick auf die Präsentationen.

Ross Moore hielt den ersten Vortrag. Er sprach über semantisches Anreichern von mathematischen Formeln im PDF. Zuerst demonstrierte er die bestehenden Möglichkeiten, PDF Tooltips zu Text und Formeln hinzuzufügen. Tooltips sind kleine Infofenster, die als Popups erscheinen, wenn man mit der Maus darüberfährt, oder dem Äquivalent auf Tablets und Telefonen. Während sie nicht im Druck erscheinen, sind sie wertvoll als zusäzliche Informationsquelle in elektronischen Dokumenten. Der Leser kann sich weitere Detail-Informationen geben lassen, die sonst verborgen sind, damit der eigentliche Text fokussiert bleibt. Es erfordert jedoch eine recht komplizierte Syntax, mathematische Formeln mit eingebetteter semantischer Syntax zu erstellen.

Ross Moore stellte das neue Paket mathsem vor. Es bietet die Möglichkeit, semantische Zusatzinformationen separat von den Formeln zu definieren. Das kann am Beginn der Formel sein, oder am Beginn des Dokuments. Hier ist ein Beispiel:

\(
%$semantics
% x $ variable
% f $ variable
% f $ function
% \Re $ real part of
%$endsemantics
y = f(x)
\)

Nun erhalten die Symbole in der Formel ihren eigenen Tooltip. Wie zu sehen ist, kann man auch für Makros Semantik definieren. Das ist tatsächlich empfehlenswert: mans definiere ein Makro mit einem Namen, der am besten den Zweck kennzeichnet, nicht die Ausgabeweise, und dann fügt man einen semantischen Ausdruck hinzu.

Die Syntax ist:

% token $ semantics line end

Die Implementierung geschah durch Hacken der catcodes des Kommentarzeichens % und des Zeilenende-Zeichens, dort hakt sich das Paket ein. Dieses Vorgehen hat den Vorteil, dass auch ohne das mathsem-Paket das Dokument einwandfrei läuft. Die Zusätze sind ja in Kommentaren verborgen, tatsächlich wirken sie dann wie nützliche Quellcode-Kommentare.

Um die Arbeit zu vereinfachen, bietet mathsem den Befehl \DeclareMathSemantics, um für wiederholte Anwendung einmalig die Semantik zu definieren. Das eignet sich für voreingestellte Tooltips für Symbole und Makros, was man später im Dokument auch überschreiben kann.

Tooltips kann man auch für Screenreader verwenden, also für Hilfswerkzeuge, die Text und Formeln vorlesen, etwa wenn das Sehen beeinträchtigt ist. Ross Moore zeigte einige Beispiele und diskutierte die Anwendung auf maschinelles Vorlesen von Formeln, im Zusammenhang mit PDF/UA-Dokumenten.

Im Anschluss erklärte Olaf Drümmer, was PDF/UA bedeutet. UA steht für “universal accessibility”, was grundsätzlich meint, dass ein Dokument vernünftigen Zugang zum PDF-Inhalt anbietet. So sollte eine seh-beeinträchtige Person den Inhalt per Audio durch einen Screenreader erfassen können. Das erfordert, dass jeglicher Inhalt auch in Text vorliegt, was auch für Bilder zutrifft. Weitere Anforderungen sind Verlässlichkeit, definierte Reihenfolge, logische Struktur, Meta-Daten und der Verzicht auf Verschlüsselung.

Olaf Drümmer demonstrierte eine Vorlese-Software, einen PDF/UA-Prüfer sowie ein Visualierungs-Werkzeug.

PDF/UA ist verwandt mit tagged PDF: ein gut getaggtes PDF-Dokument kann zu PDF/UA konform sein.

Ein weiterer Vortrag von Ross Moore zusammen mit Peter Selinger gab uns ein Update zur Weiterentwicklung des pdfx-Pakets. pdfx hilft beim Erstellen von Dokumenten, die zum PDF/A-Standard konform sind. Tatsächlich gibt es mehrere verschiedene PDF/A-x-Standards. Die neue Version von pdfx unterstützt nun die meisten von ihnen. Weiterhin funktioniert pdfx nun auch mit LuaTeX.

Dann hatten wir eine Pause. Das waren einige Minuten, einen Kaffee zu greifen und zu trinken, und um sich ein bisschen miteinander zu unterhalten. Ich wünschte, dafür gäbe es mehr Zeit, da ich die Unterhaltungen neben den Konferenzen sehr schätze. Doch es gibt ja noch Mittagspausen und Abende. Herbert Voss und Martin Sievers trafen mich und fragten, ob ich sowieso einen Report für ein Blog schreiben würden, und das auch für die nächste TeXnische Komödie weitergeben könne. Natürlich, gerne. Dann mache ich mir noch ein paar Notizen und schreibe das auch hier auf TeXwelt auf sowie auf Englisch für LaTeX-Community.org.

Joseph Wright hielt den ersten Vortrag nach der Pause. Während es im ersten Teil nur um PDF ging, kamen wir nun zum Thema Unicode. Er sprach darüber, Unicode-Eingabe in TeX einzulesen und über die Herausforderungen, das zu verarbeiten. Zum Beispiel beschrieb er die Schwierigkeiten beim Umwandeln in Großschreibung und in Kleinschreibung, mit Variationen wie “titlecasing” and “casefolding”. Ich sah, dass feine Details den Entwicklern schon Kopfzerbrechen bereiten können. Es gibt viele Besonderheiten und Unterschiede in verschiedenen Sprachen zu beachten.

Dann kam Will Robertson. Auf dem Posium tauschte er zunächst kurz die Rollen. Er griff seine Kamera und rief: “Everybody wave!” und machte ein Foto der Zuhörerschar. Dann begann er mit einer Rückschau auf die Entwicklung seines Pakets unicode-math.

unicode-math macht das Umschalten von Mathematikschriften so einfach wie das Wechseln von Textschriften. Es gibt tausende von Mathematik-Glyphen jeweils in verschiedenen Schriften, für jedes gibt es einen LaTeX-Namen, man kann es aber auch direkt in die Eingabe schreiben. Das geht beispielsweise durch Code-Autovervollständigung des LaTeX-Befehls, der das Symbol erzeut, zum Unicode-Symbol. Das kann Lesbarkeit des Quellcodes verbessern, doch nicht in allen Fällen, etwa wenn Glyphen sich zu sehr gleichen. Ein R mit Doppelstrich ist klarer erkennbar als der längliche Befehl dafür, doch fettes, italic oder normales x gleichen sich etwas zu sehr.

unicode-math gibt direkten Zugang zu einer riesigen Menge von Symbolen. Man benötigt natürlich eine Schrift mit Unicode-Unterstützung. Glücklicherweise gibt es einige davon.

LaTeX-Autoren verwenden üblicherweise verschiedene Schriften, um eine Bedeutung darzustellen. In Unicode-Mathematik behält man die Schrift bei und wählt einfach ein Symbol mit der gewünschten Bedeutung, was logischer ist. Spacing ist schwieriger umzusetzen, denn in Mathematik verhält es sich damit anders als in normalem Text.

Danach kam das GUST-Team und erklärte, wie Zeichen für Mathematik-Schriften ausgewählt werden. Das führte zu einer Diskussion, ob wir wirklich weitere neue Schriften brauchen, oder ob es dafür eventuell nicht genug Bedarf gibt.

We hörten von den TeX Gyre Mathematik-Schriften, sie wurden mit der zugrunde liegenden logischen Struktur beschrieben, und ihrer Kategorisierung in fett, italic, serifenlos, Doppelstrich und weiteren Varianten und Kombinationen. Sie diskutierten Anforderungen wie Skalierungsfaktoren für Subscripts und Superskripts, Spacing, Glyph-Verbindungen, und skalierende Glyphen. Nebenbei, es gibt ca. 4200 Glyphen allein in DejaVu Math.

Doch nur wenige Firmen erschaffen OpenType Mathematikschriften. Möglicherweise gibt es keinen kommerziellen Druck oder keinen Markt für Matheschrften, nicht genug Nachfrage. So, statt die nächste neue Schrift zu erstellen, könnte die zukünftige Aufgabe sein, Schrift-Varianten herzustellen. Das können beispielsweise serifenlose Varianten für Präsentationen sein, oder fette Varianten für Mathematik-Anteile in Überschriften.

Frank Mittelbach hielt den nächsten Vortrag über Geschichte und aktuelle Entwicklung von LaTeX2e. Heute ist es 21 Jahre alt. Die Strategie der zwingenden Kompatibilität wird nun geändert auf eine Strategie “roll back – roll forward”. Fehlerbehebungen und Verbesserungen werden direkt auf den Kernel angewendet. Mit dem latexrelease-Paket und Angabe eines Datums als Option erreicht man Kompatibilität zur LaTeX-Version dieses Datums. Zusätzlich können Pakete ihren Code an Releases anpassen, durch ein \IncludeInRelease-Makro. Es wird weiterhin Patch-Releases geben, die keine Roll-back-Punkte sein werden, im Gegensatz zu Major Releases.

Alle Fehlerkorrekturen von fixltx2e sind nun in den Kernel aufgenommen. e-TeX ist nun direkt enthalten, weiterhin auch direkte grundsätzliche Unterstützung von XeTeX und LuaTeX. Ein Test-Paket prüft die Funktion mit allen Formaten. e-TeX und XeTeX bestanden die Tests, doch es treten noch viele Probleme mit LuaTeX auf, wo die Ursachen zu prüfen sind.

Einige der Verbesserungen:

  • \emph kann nun Kapitälchen und anderes zur Hervorhebung verwenden.
  • \textsubscript ist im Kern definiert.
  • \DeclareMathSizes nimmt nur Punkte an.
  • Es gibt weniger fragile Kommandos.

Der finale Sprecher dieser dritten Vortrags-Serie war Hans Hagen. Sein Vortrag “What if” war vorwiegend reflektierend. Er blickte auf Unicode, das toll ist um die Schwierigkeiten von Eingabecodierungen und Schriftcodierungen loszuwerden, mit einfachem Übergang dank bereits bestehender Unterstützung von UTF-8. Und es gibt eine ausgeklügelte Behandlung von Groß- und Kleinschreibung, Kategorien und Spacing. Was wäre, wenn wir das viel früher gehabt hätten? Beim Kämpfen mit Codierungen wurde viel Zeit verbraucht. Jedoch, Unicode bringt neue Herausforderungen durch mehr Möglichkeiten, kulturelle Besonderheiten von Symbolen in Sprachen, und Kompatibilitäts-Probleme. Und es wird immer neue Ausnahmen zu Regeln geben, durch Nutzer-Anforderungen.

Hans Hagen dachte laut über das Design von TeX nach, das hohe Qualität hat und dennoch langweilig wirken kann. Die Gestaltung mag nicht für jeden Zweck gut geeignet sein, wenn man etwa an farbenfrohe locker gesetzte Schulbücher denkt. Die tollen Schriften helfen natürlich bei der Lesbarkeit. Dennoch, es gibt viele unterschiedliche Vorstellung über Design, was doch subjektiv ist, bei Rändern, Serifen und mehr.

Hans Hagen bemerkte, dass wir noch ungenügende jedoch dauerhafte fest bestehende Standards haben. Der Markt verlangt nach XML, als Ein- und Ausgabeformat, sowie Unterstützung von tagged PDF und EPUB-Format. Dann warf er einen Blick auf die Entwicklung von Prozessorgeschwindigkeit und Speicher und wie wir davon heute profitieren können. Gegenüber früher sparen wir heute Zeit, wir brauchen nicht mehr so mit Hardware-Beschränkungen zu kämpfen. Wo wären wir jetzt, wenn wir das 20 Jahre früher gehabt hätten? Wo wäre unser heutiger Stand? Wir haben Konkurrenz durch WYSIWYG und Realtime-Rendering. Wir sollten die heutigen Hardware-Vorteile mit mehr Anstrengung nutzen. Immerhin, auf der anderen Seite können Beschränkungen auch zu besseren Lösungen führen.

Er endetre mit einem Blick auf die Zukunft. Wird TeX mehr Nische oder mehr Mainstream? Wird es ein Back-end sein? Oder wird es nur noch durch einzelne Anwender genutzt? Die Anforderung an Qualität wächst nicht, andere Applikationen arbeiten auch gut. Können wir uns auf Kontrolle konzentrieren, und aus kulturelle Gesichtspunkte? Die Zukunft ist unklar. So, nach dem Gedächtnis, Hans Hagen’s Worte.

Eine kurze Pause kam sehr willkommen, im Bistro im Hotelgebäude gab es sogar Eiscreme.

Joseph Wright gab dann ein Update zum Status der UK TeX FAQ. Der Cambridge-Server ist nicht mehr verfügbar. So gaben wir der FAQ ein neues Zuhause, auf einem von mir betreutem Server. Der originale und etablierte Domain-Name konnte bewahrt werden. Ich möchte nun helfen bei Fortführen, beim Verbessern der Zugänglichkeit durch Suche und Tagging und beim Web-Design. Das UK TUG Team lenkt weiter die Entwicklung. Joseph Wright rief dazu auf, ein paar Leute zu finden, die die FAQ überarbeiten. Diese Arbeit kann auf mehrere Schultern verteilt werden, so dass jeder sich auf einen kleineren Teil der FAW konzentrieren kann. Und wenn man etwas nicht genau kennt, kann man dennoch Punkte zum Überarbeiten durch andere markieren. Die Quellen der FAQ sind durch Joseph Wright für die weitere Entwicklung auf github eingerichtet worden.

Joachim Schrod erzählte im Anschluss, welche Services CTAN bereitstellt. Auf Englisch für die TUG-Freunde entsprach das seiner Psäsentation beim DANTE-Meeting in Stralsund im Frühjahr. Daher widerhole auch ich mich einmal. Eine wesentliche Funktion von CTAN besteht ja darin, als zentraler Server LaTeX-Pakete an ausgewählte Server zu verteilen, die wiederum ca. 200 Spiegel-Server versorgen, damit wir TeX-Distributions-Nutzer am Ende an Paketupdates gelangen. Das beinhaltet Herausforderungen wie Überwachen der Spiegel-Server und Aktualitätstests. Herz des Archivs ist der TeX Catalogue. Die Pflege von Paketen und ihren Meta-Daten ist eine arbeitsaufwändige und unverzichtbare Grundlage des Archivs. Neben eingehender Spiegelung laufen dann noch Dienste wie Webserver, Wikis und Mailinglisten u.a. für Upload-Management und insbesondere für den Betrieb von DANTE.de.

Mit einem Blick auf die Last der CTAN-Servers angefragt durch TeX-Anwender, bestätigte Joachim Schrod Hans Hagens Worte, dass TeX eine Nische sei, doch er betonte: es ist eine sehr große.

Am Ende sprachen Barbara Beeton und Volker RW Schaa erinnernde Worte über Pierre MacKay, Richard Southall und Hermann Zapf, die leider von uns gegangen sind.

Am Abend gab es Diner im Restaurant “Dreiklang”. Das diesmal sogar vollständige LaTeX3-Team, sowie Henri Menke und ich, gingen zum Ratskeller etwas essen und etwas trinken. Den späten Abend ließen wir im Schloßgarten beim Apfelwein ausklingen.

21. Juli 2015 von Stefan Kottwitz
Kategorien: Veranstaltungen | Schlagwörter: , , | Kommentare deaktiviert