3. 1 HINFÜHRUNG 1
1 Hinführung
Die provokative Formel “Semantik + Web 2.0 = Web 3.0“ kursiert im Internet seit sich der
Begriff des Web 2.0 etabliert hat. Doch die Idee des semantischen Webs ist schon so alt wie
das Internet selbst – war sie doch bereits 1980 Teil der Vision, die Tim Berners-Lee vom
World Wide Web hatte. Jetzt steht das Web 2.0 an der Schwelle zum Semantic Web. Mit
Hochdruck arbeiten Entwickler an den proprietären Technologien, und erste Ansätze für
das Semantic Web sind bereits zu erkennen und nutzbar.
In dieser Hausarbeit wird zunächst geklärt, wie es zum Semantic Web kam (Siehe 2,
Vom Arpa-Net zum Web 3.0). Anschließend wird im Detail geklärt was das Semantic
Web auszeichnet und wie es funktioniert, welche aktuellen Entwicklungen bereits zum
semantischen Web gehören und wie das Semantic Web der Zukunft aussehen könnte (Siehe
3, Semantisches Web). Abschließend soll der Begriff des semantischen Webs kritisch mit
Hilfe der Sprechakttheorie reflektiert werden (Siehe 4, Sprechakttheoretische Begriffskritik),
insbesondere in Bezug auf den Begriff der Semantik im Kontext manschinenverarbeitender
Intelligenz.1
2 Vom Arpa-Net zum Web 3.0
Das ARPA-Net, ein Computernetzwerk, das von der Advanced Research Projects Agency
1969 aufgebaut wurde, bildete lange Zeit die Basis des Internets. Der ursprüngliche Zweck
des ARPA-Nets bestand darin, online die Rechenzeiten der vorhandenen Computer für
Forschungszwecke aufzuteilen. Andere Forschungseinrichtungen bauten nach dem erfolgrei-
chen Einsatz des ARPA-Nets ebenfalls interne Computernetzwerke auf, oft mit dem Ziel
untereinander Informationen austauschen zu können. So entstanden verschiedene Plattfor-
men für Wissenschaftler, Forscher und Militär. 1972 begann ausgehend vom ARPA-Net
die Verbindung dieser verschiedenen Netzwerke zu einem größeren Netzwerk. Parallel hier-
zu entwickelte sich das Usenet aus einer Gemeinschaft von UNIX-Usern. Als es 1980 zu
einer Verschmelzung beider Netzwerke kam, war das Internet geboren.2 In der weiteren
Entwicklung des World Wide Webs spielte Tim Berners-Lee eine Schlüsselrolle, der 1990
mit der Entwicklung eines Browser-Systems und der Einführung der URL sowie einem
Vorläufer von HTML das eigentliche World Wide Web gestaltete, wie es heute genutzt
wird. Inzwischen hat sich der Begriff Web 2.0 etabliert, der den interaktiven Umgang
mit dem Internet, in dem jeder User gleichzeitig auch eine Autorenrolle innehaben kann,
bezeichnet. Doch eigentlich hatte Berners-Lee eine andere Vision, als er das World Wide
Web entwickelte: Er hatte sich eine Art semantisches Web vorgestellt, das sich durch eine
intelligente Informationserschließung auszeichnet.
1
Mit maschinenverarbeitender Intelligenz ist nicht die Entwicklung und Nutzung einer künstlichen Intelli-
genz, einer AI, gemeint. Im Kontext des Semantic Web meint maschinenverarbeitende Intelligenz vielmehr,
dass das Web auf der Basis von vorhandenen Informationen und einer inkludierten Logik Schlussfolgerungen
zieht, selektiert und präsentiert, um so den User bei seiner täglichen Nutzung des Internets zu unterstützen.
2
Vgl. Castells 2008, S. 20.
4. 3 SEMANTISCHES WEB 2
Das Web 3.0, das oft auch gleichgesetzt wird mit dem Semantischen Web, betrachten
viele nun als die nächste Entwicklungsstufe des Webs. Das “Ziel des Semantic Web ist es,
neuartige Anwendungen und Dienste zu ermöglichen, in dem Daten von Maschinen bzw. von
Software interpretiert und für vorher nicht notwendigerweise vorgesehene Zwecke wieder-
und weiterverwendet werden.“ 3 Diese Art der intelligenten Informationsverarbeitung war es
auch, die Berners-Lee zu realisieren anstrebte.
3 Semantisches Web
Wer die Begriffsfolge “Anzahl der Mitarbeiter der Eberhard-Karls-Universität Tübingen
2009“ in eine Suchmaschine eingibt, erhält eine Vielzahl an möglichen Resultaten, in Form
einer Auflistung von Websites die das Ergebnis enthalten könnten. Ob Google, Yahoo
oder Bing, keine der heutigen Suchmaschinen ist in der Lage, eine solche Suchanfrage zu
verstehen und eine präzise Antwort darauf auszugeben. Der Grund hierfür liegt daran, dass
das Web für den Menschen als Endbenutzer ausgerichtet ist: “So kann ein menschlicher
Nutzer die Bedeutung einer Information auf einer Website problemlos erfassen, in andere
Darstellungsformen transformieren und zu anderen Informationen in Beziehung setzen,
während eine Maschine dies in aller Regel nicht zu leisten imstande ist.“ 4 Gerade wenn es
um implizite Informationen geht, als um Schlüsse, die aus mehreren Informationen gezogen
werden können, sind die kognitiven Fähigkeiten eines menschlichen Endbenutzers von
Relevanz. Faktoren, die eine maschinelle Informationsverarbeitung erschweren, sind unter
anderem die Heterogenität der im Web vorliegenden Informationen, sowie die Ambiguität
vieler Begriffe. Informationsverarbeitung im Web setzt momentan also noch voraus, dass ein
agierender Mensch involviert ist, der Suchen durchführt, Websiten aufruft, Informationen
extrahiert und Schlüsse zieht.
Was Berners Lee seit den späten 1980ern verfolgt ist allerdings eigentlich die Entwicklung
von semantischen Technologien, mit deren Hilfe Computer die Inhalte des Webs besser
verarbeiten können. Dafür benötigen Inhalte zunächst eine eindeutige ihnen zugewiesene
Bedeutung, die von Maschinen auffindbar ist. Weiterhin müssen die Beziehungen zu anderen
Bedeutungen herausgestellt werden, beispielsweise indem hierarchische Klassen gebildet
werden. Damit die Verarbeitung solcher Angaben möglich wird, müssen standardisierte
Methoden eingeführt werden, die die Interoperabilität gewährleisten.5 Das World Wide Web
Consortium (W3C)6 beschäftigt sich mit der Standardisierung von Internettechnologien,
und legte zwei Informations-Spezifikationssprachen für ein semantisches Web fest: RDF
3
Hitzler et al. 2007, S. 1.
4
Ebd., S. 10.
5
Vgl. ebd., S. 11.
6
Das W3C Consortium hat etwa 230 Mitgliederorganisationen, die Software, Hardware, Netzwerke und
Informationsstrukturen für das Web entwickeln. Dabei existiert das W3C Consortium “as a place for those
companies for which the Web is essential to meet and agree on the common standards that will allow
everyone to go forward.“ (Fensel et. al. 2003, S. XV)
5. 3 SEMANTISCHES WEB 3
und OWL.
3.1 Resource Description Framework und Web Ontology Language
Um Metadaten zuzufügen und um semantische Klassifizierungen für Maschinen interpretier-
bar zu machen wurden das Resource Description Framework (RDF) sowie die Web Ontology
Language (OWL) entwickelt.
Mittels RDF kann bereits Bedeutung ausgedrückt werden: Das RDF-Modell ermöglicht drei
Informationstypen: Ressource, Eigenschaftselement und Objekt, oft wird auch von Subjekt,
Prädikat und Objekt gesprochen. Mit Hilfe dieser Informationstypen, die als Metadaten
vorliegen, können beispielsweise Webseiten oder Objekte (Musik, Videos, Grafiken) von
Computern erkannt und verarbeitet werden.7
OWL ist eine formale Beschreibungssprache, die es Programmen erlaubt Inhalte zu erkennen
und zu verarbeiten. Sie beruht auf RDF, offeriert aber mehr Variablen. OWL spielt insbe-
sondere dann eine wichtige Rolle, wenn sogenannte Software-Agents (Siehe 3.2.4, Agents)
ins Spiel kommen, da OWL “more vocabulary for describing properties and classes: among
others, relations between classes (e.g. disjointness), cardinality (e.g. “exactly one“), equality,
richer typing of properties, characteristics of properties (e.g. symmetry), and enumerated
classes“ 8 zum bestehenden RDF hinzufügt, und somit mehr Verarbeitungsmöglichkeiten
bietet.
3.2 Erweiterungen des Internets
Das Semantic Web ist also genau genommen kein “neues“ Internet, sondern eine Erweiterung
der Funktionalität des bereits bestehenden Internets. Es geht hierbei auch nicht, wie oft
fälschlicherweise angenommen, um die Erschaffung einer künstlichen Intelligenz. Zwar
wären Methoden der künstlichen Intelligenz, die die kognitiven Aufgaben des Menschen
anwenden würden, ebenfalls eine Möglichkeit – jedoch ist der Forschungsstand im Bereich
der maschinenverarbeitenden Intelligenz längst nicht ausreichend für ein funktionierendes
semantisches Web. Der Ansatz ist vielmehr der, dass der Webinhalt auf eine Form gebracht
wird, die von Maschinen leichter zu verarbeiten ist. Die Technologien dafür sind größtenteils
bereits entwickelt. Damit Semantic Web funktionieren kann braucht es neben RDF und
OWL vier Ergänzungen des bestehenden Internets, die aber eng zusammenhängen: Explizite
Metadaten, Ontologien, Logik im Web und Agenten.
3.2.1 Explizite Metadaten
Als Metadaten werden Daten bezeichnet, die über andere Daten Auskunft geben, also “data
about data. Metadata capture part of the meaning of data, thus the term semantic in
Semantic Web.“ 9 Im Quelltext von HTML- oder XML-Seiten sind Metadaten als unsichtbare
7
W3Ca.
8
W3Cb.
9
Grigoris Antonuoi 2004, S. 9.
6. 3 SEMANTISCHES WEB 4
Informationen über die Inhalte der Seiten eingebaut, um Suchrobotern das Auffinden der
Informationen zu erleichtern. Personennamen, Themengebiete, Ortsangaben oder ein Datum
sind typische in Metadaten untergebrachte Informationen, auch “Tags“ genannt. Tags können
auf vielen Seiten auch von Nutzern vergeben werden und werden dann üblicherweise sichtbar
angezeigt.
3.2.2 Ontologien
Tom Gruber definierte eine Ontologie als eine “explicit and formal specification of a concep-
tualization.“ 10 Ontologien stellen also einen Bereich von etwas dar, indem sie spezifizieren.
Im Web besteht ein solcher Bereich aus einer Taxonomie und Regeln. Die Taxonomie
definiert Ausdrücke und die Beziehungen dieser Ausdrücke zueinander, die Regeln helfen
bei der Verwertung der Informationen.11
Somit sind Ontologien sehr nützlich, da sie bei der Organisation von Websites helfen und
die Genauigkeit von Suchen im Internet verbessern. Geschrieben werden können Ontologien
in XML, RDF, und OWL. Für das Semantic Web gelten insbesondere RDF und OWL als
Standards, da beide – wie bereits angesprochen – Eigenschaften, Klassen und Beziehungen
beschreiben können.
3.2.3 Logik im Web
Logik bietet drei für das Semantic Web essentielle Vorraussetzungen: Eine formale Sprache
um Wissen auszudrücken, eine gut verständliche formale Semantik und die Möglichkeit
auf Basis von vorhandenem Wissen Schlussfolgerungen zu ziehen. Die Logik, die dem Web
hinzugefügt wird, muss dabei leistungsfähig genug sein um komplexe Eigenschaften von
Objekten zu beschreiben.
3.2.4 Agents
Agents sind selbstständig agierende Software, die Aufgaben und persönliche Präferenzen
eines Users erhalten, Quellen im Web nach Informationen durchsuchen, mit anderen Agents
kommunizieren, Informationen bewerten und vergleichen, eine Wahl treffen und diese Aus-
wahl dann dem User präsentieren. Während diesem Prozess machen die Agenten Gebrauch
von den Metadaten (Identifizieren und Extrahieren von Informationen), den Ontologien
(Interpretieren der Informationen und Kommunikation mit anderen Agenten) und der Logik
(Abfertigen von Informationen und Ziehen Schlussfolgerungen).12
Ein wichtiger Aspekt der Funktionsweise von Agenten ist dabei der Austausch von Si-
10
Gruber 1995, S. 907.
11
Exemplarisch: Ein Bereich könnte die Universität sein, der die Ausdrücke Student, Dozent und Professor
beinhaltet, die durch ihre aufsteigende Hierarchie in einer bestimmten Beziehung zueinander stehen. Die
Regeln könnten beispielsweise festhalten, dass nur Dozenten und Professoren zu den Mitarbeitern zählen,
nicht aber die Studenten.
12
Vgl. Fensel 2003, S. 14ff.
7. 3 SEMANTISCHES WEB 5
cherheiten, beispielsweise mit Hilfe von digitalen Signaturen. So können Informationen als
vertrauenswürdig eingestuft werden. Das spielt insbesondere dann eine Rolle, wenn es um
sensible Daten wie beispielsweise Bankverbindungen geht. Daher müssen Agents skeptisch
sein, bis sie die Informationen überprüft und verifiziert haben, die sie über das Semantic
Web erhalten haben.
3.3 Bestehende Ansätze
Das Web 2.0 weist bereits einige Ansätze auf, die auf einen Entwicklungsprozess hin zu
einem semantischen Web deuten. Insbesondere die sogenannten Reconaissance-Agents und
einige Suchmaschinen nutzen teilweise bereits semantische Technologien.
3.3.1 Reconnaissance-Agents
Reconaissance-Agents sind Web-Agenten, die bereits in der Lage sind Informationen in-
telligent zu interpretieren. Beispiele hierfür sind Letizia und Powerscout, zwei Agents die
vom MIT entwickelt wurden. Beide Agents beobachten das Verhalten eines Users im Web
und schlagen diesem dann dynamisch Websites vor, die die bisherigen Präferenzen ideal
ergänzen. Im Idealfall nennen die Agents also Websites, die dem Userverhalten in Gänze
entsprechen. Das Prinzip ähnelt dem von Amazon (Der Online-Shop Amazon macht dem
User Vorschläge für Artikel, aufgrund der bisherigen Käufe und Klicks) oder dem von Pan-
dora (Das amerikanische Online-Radio optimiert einen individuell erstellten Radiosender
nach den Präferenzen des Users, der die gespielten Lieder bewerten kann).
3.3.2 Suchmaschinen
Das Versprechen einer semantischen Suchmaschine ist, dass sie konkrete Antworten liefert
anstatt eine Liste von Webseiten als Suchergebnisse auszugeben. Damit das möglich wird
muss die immense Menge an Internetinhalten des Web 2.0 zu einer Bibliothek von Inhalten
indiziert werden, und diese entsprechend Ihrer Bedeutung an mögliche Fragen geknüpft
werden.
Google
Die Suchmaschine von Google hat durch ihre weite Verbreitung bei Usern Zugriff auf viele
Anfragen und Ergebnisse, und kann daher auf einen sehr großen virtuellen “Erfahrungsschatz“
zurückgreifen. Das Suchverhalten der User wird ausgewertet und gespeichert, wodurch
Google der wohl wahrscheinlichste Kandidat für eine gute semantische Suchmaschine ist.
Ansätze dafür, dass Google konkrete Antworten ausgibt, sind bereits vorhanden: Gibt man
in die Eingabezeile bei Google beispielsweise Wortkombinationen wie “„Wetter Stuttgart“,
“Kinoprogramm Tübingen“ oder “„10 Euro in Dollar“ ein, liefert Google über den normalen
Suchergebnissen (in Form einer Websiten-Auflistung) eine ganz konkrete Antwort.13
Wolfram Alpha
13
Google.
8. 3 SEMANTISCHES WEB 6
Die Suchmaschine Wolfram Alpha geht noch einen Schritt weiter. In das Eingabefeld der
Suchmaschine kann der User Fragen eingeben, beispielsweise “Who is the inventor of the
internet?“. Die Suchmaschine verweist den User dann nicht auf Websites, sondern gibt eine
konkrete Antwort aus. Dabei greift die Suchmaschine nicht auf eine Wissensdatenbank zu,
sondern extrahiert die Antwort aus einer Vielzahl von Websites und Datenbanken. Dennoch
sind die korrekten Antworten vor allem auf den wissenschaftlichen Sektor beschränkt, zum
einen da wissenschaftliche Inhalte im Internet heute schon gut strukturiert und semantisch
aufbereitet sind, und zum anderen die Fragen auch meistens eindeutig beantwortet werden
können.14
3.4 Das Semantic Web der Zukunft
Eine große Entwicklergemeinde, insbesondere das W3C, forciert die Entwicklung hin zum
Semantic Web. Auch die Deutsche Bundesregierung investiert ins Web 3.0, unter anderem
mit dem Theseus-Projekt.15
Ob es tatsächlich in den nächsten Jahren eine Umstellung auf ein semantisches Web gibt ist
aber weiterhin fraglich. Es fehlt die Akzeptanz der User, die eine so intensive Vernetzung
von Daten und Diensten kritisch betrachten. Auch ist momentan noch unklar, wie die
bereits vorhandenen Inhalte des Webs optimal semantisch aufbereitet werden können.
Der Königswegs wäre eine Software, die bestehende Websites in semantische Websites
umwandelt – die Fehlerquote, die mangelnde Zuverlässigkeit und die hohen Kosten sprechen
allerdings dagegen. Eine andere Möglichkeit wäre Nutzerpartizipation, ähnlich wie bei
der Online-Enzyklopädie Wikipedia soll die Internet-Gemeinde sich am Semantic Web
beteiligen und mit speziellen Editoren vorhandenen Content rückwirkend taggen und
semantisch aufbereiten. Hierzu könnte man Nutzern eine Art semantischer Werkzeugkasten
zur Verfügung stellen, so dass sie selbst Inhalte, Regeln und Ordnungen erstellen und
bearbeiten sowie multimediale Inhalte intelligent aufbereiten, sammeln und verknüpfen
können.
Neben der Entwicklung der Basistechnologien für ein semantisches Web wird ein weiterer
Schwerpunkt in der Entwicklung von Verknüpfungen zwischen Mobilgeräten, Diensten und
GPS liegen, sowie der Weiterentwicklung von Sprach- und Bilderkennungsprogrammen. Ein
in diesem Kontext oft genanntes Beispiel einer Anwendung, die all diese Tools verwendet,
ist das folgende: Ein Mensch fotografiert mit seinem Mobilgerät ein Filmplakat ab, und
spricht in das Mikrofon eine Frage wie “Wo läuft dieser Film heute abend?“.r Das Mobilgerät
interpretiert die Audioeingabe, lokalisiert den User per GPS, extrahiert den Filmtitel aus
dem Bild, schickt eine Anfrage an die Dienste der umliegenden Kinos, und gibt dem User
14
Wolfram Alpha.
15
Das Theseus-Projekt der Bundesregierung ist der Versuch Basistechnologien einer semantischen Websuche
wie Indexierungs- und Annotationsverfahren, automatische Metadatengenerierung und kontextbasierende
Videoerkennung zu entwickeln. Gefördert wird das Theseus-Projekt mit 100 Mio. Euro. Eine große Gemeinde
an Bloggern, Entwicklern und Nutzern steht dieser Investition kritisch gegenüber, und äußern Bedenken,
dass Deutschland den Anschluss an diese Technik bereits verpasst habe.
9. 4 SPRECHAKTTHEORETISCHE BEGRIFFSKRITIK 7
eine Liste aus, wann der gewünschte Film in den Kinos der Umgebung gezeigt wird. Hat
der User einen persönlichen Agent installiert, könnte dieser zusätzlich abfragen ob Karten
reserviert werden sollen. Bestätigt der User dies, sorgt der Agent für eine Reservierung und
veranlasst die Bezahlung. Zusätzlich trägt er den Termin automatisch in den Terminkalender
ein, gibt Hilfestellung bei der Anfahrt mit dem Auto oder den öffentlichen Verkehrsmitteln
und macht Vorschläge zu weiteren Abendgestaltung vor und nach dem Kinobesuch, die
thematisch oder zu Präferenzen des Users passen.16 Teile dieses Szenarios hängen auch eng
mit der Entwicklung der sogenannten Augmented Reality zusammen.
4 Sprechakttheoretische Begriffskritik
Die Bezeichnung “Semantisches Web“, die auch in dieser Hausarbeit verwendet wurde, hat
sich als geläufige Begrifflichkeit für die bisher besprochene Weiterentwicklung des Web 2.0
etabliert. Das Wort “Semantik“ entstammt eigentlich dem Bereich der Linguistik und wird
manchmal auch in der Philosophie oder der Mathematik gebraucht. Mit Hilfe der Semantik
werden wörtliche Bedeutungen von sprachlichen Ausdrücken analysiert und beschrieben.
So können semantische Beziehungen und die Beziehung der sprachlichen Ausdrücke zur
außersprachlichen Wirklichkeit herausgestellt werden, die Bedeutung von Sätzen als Summe
der Bedeutung ihrer Einzel-Lexeme sowie die zwischen ihnen bestehenden grammatischen
Relationen erfasst werden und Phonetik sowie Prosodie beschrieben und analysiert werden.
Jede Kommunikation hat dabei einen außersprachlichen Kontext, der die Interpretation der
Phrasen beeinflusst. Mit Hilfe der Pragmatik, ebenfalls ein Teilgebiet der Linguistik das an
die Semantik anschließt, können durch Regeln zum Gebrauch der Sprache Schlussfolgerungen
gezogen werden, die diesen außersprachlichen Kontext in der Interpretation berücksichti-
gen. Doch auch die Semantik benötigt Kenntnis des außersprachlichen Kontextes, auch
Äußerungskontext genannt, um beispielsweise “die Analyse der Bedeutungsverschiebungen,
denen die Ausdrucksbedeutung im Kontext unterliegen kann“ 17 , vornehmen zu können.
4.1 Austin und Searle
Eine allgemein anerkannte Theorie der Linguistik, die sich mit den verschiedenen Ebenen
einer Interpretation befasst, ist die sogenannte Sprechakttheorie. Der Grundgedanke der
Sprechakttheorie ist der, dass mit jeder Äußerung Handlungen auf verschiedenen Ebenen
vollzogen werden. Die erste Ebene nennt Austin, der Begründer der Sprechakttheorie, den
lokutionären Akt. Die Lokution “besteht darin, in einem gegebenen ÄK (Äußerungskontext,
Anm. d. V.) einen Ausdruck, in der Regel einen Satz, mit einer bestimmten Äußerungsbe-
deutung zu sagen“. Der propositionale Akt, die zweite Ebene, beinhaltet die Referenzen
auf die außersprachliche Welt und die Prädikation, das heißt eine Aussage über die Welt.
Als dritte Ebene nennt Austin die Illokution. Searle fasst diese wie folgt zusammen: “The
16
Vgl. Lassila/Adler 2003, S. 12ff.
17
Löbner 2003, S. 12.
10. 4 SPRECHAKTTHEORETISCHE BEGRIFFSKRITIK 8
production of the sentence token under certain conditions is the illocutionary act, and the
illocutionary act is the minimal unit of linguistic communication“ 18 . Die Illokution bezieht
also die Intention des Äußernden mit ein.19 Der perlokutive Akt, auf der vierten und letzten
Ebene schließlich, inkludiert die Frage, welche Botschaft den Adressaten erreicht. Hier
spielen indirekte Sprechakte eine wichtige Rolle: “Such cases, in which the utterance has
two illocutionary forces (...) are indirect speech acts, cases, in which one illocutionary act is
performed indirectly by way of performing another.“ 20
Grundlage des semantischen Webs sind nicht menschliche sprachliche Äußerungen in einem
Äußerungskontext. Anstelle einer kommunikativen Mensch-Mensch-Schnittstelle liegt ei-
ne Mensch-Maschine-Kommunikation vor, und im Falle der Kommunikation von Agents
und Datenbanken sogar eine Maschine-Maschine-Kommunikation. Und diese Maschine-
Maschine-Kommunikation beschränkt sich im Grunde auf den Austausch von angelegten
Informationen und einer Selektion, beides basierend auf Datenbankabfragen.
Betrachtet man diese Art der Kommunikation, die im Semantic Web stattfindet, mit Hilfe
der Sprechakttheorie, stellt sich die Frage, ob sich der Begriff “semantisch“ zu Recht eta-
bliert hat. Zunächst scheint dies naheliegend, da erklärtes Ziel des semantischen Webs der
Transport von Bedeutung ist, und sich die Semantik mit Bedeutung beschäftigt. Allerdings
vermag die Kommunikation zwischen Datenbanken oder Softwareagents nicht dasselbe
zu leisten wie die Kommunikation zwischen Menschen. In einigen Bereichen weist die
Maschine-Maschine-Kommunikation Defizite auf, doch die Schwierigkeiten auf der perloku-
tiven Ebene sind die verhängnisvollsten: Wenn eine Maschine eine Äußerung interpretiert
wird sie zumeist die wörtliche Bedeutung einer Aussage als Interpretation vorziehen, doch
oft stimmt die grammatische Form einer Äußerung nicht mit der Intention des Äußernden
überein. Typisch menschliches soziales Verhalten fördert die korrekte Interpretation von
Äußerungen im Äußerungskontext. Searle schreibt dazu: “Meaning is more than a matter
of intention, it is also a matter of convention.“ 21 Auf der ersten Ebene ist beispielsweise
die Frage “Kannst du mir das Salz reichen?“ die Frage nach einer Fähigkeit. Die Intention
des Äußernden ist aber eine andere, er bittet um das Salz, und möchte nicht wissen, ob
der andere nur in Lage wäre, es ihm zu reichen. Die Aufforderung ist hier als impliziter
Sprechakt enthalten.
Doch auch bei anderen Sprechakten ist es für Maschinen weit schwieriger als für Menschen
sie zu unterscheiden. So braucht es zusätzliche persönliche beziehungsweise individuelle
Daten um beispielsweise Aussagen von Drohungen zu unterscheiden: “Ich weiß wo du
wohnst“ ist grammatikalisch gesehen keine Drohung, erst die implizit enthaltenen zusätz-
lichen Aussagen und der Äußerungskontext machen die Aussage als Drohung interpretierbar.
18
Searle 1965, S. 39.
19
Searle unterscheidet zwischen dem illokutionären Akt und dem propositionalen Inalt des illokutionären
Aktes, wobei er schreibt, dass nicht alle illokutionären Akte auch einen propositionalen Inhalt haben,
Beispiele wären “Hurra!“ oder “Aua“.
20
Searle 1975a, S. 60.
21
Searle 1965, S. 46.
11. 4 SPRECHAKTTHEORETISCHE BEGRIFFSKRITIK 9
4.2 Grice
Auch Grice beschäftigte sich mit den Problemen von Kommunikation, die auf die Maschine-
Maschine-Kommunikation noch intensiver zutreffen. Insbesondere beschäftigte er sich mit
sogenannten Implikaturen von Kommunikation. Seiner Theorie legt er ein Kommunikations-
prinzip, er nennt es CP für Cooperative Principle, zugrunde, das für maximale Effizienz der
Kommunikation sorgen soll: “Make your conversational contribution such as is required,
at stage at which it occurs, by the accepted purpose or direction of the talk exchange in
which you are engaged.“ 22 Außerdem legte er vier Kategorien fest, die durch Maximen für
Kommunikation repräsentiert werden (Quantity, Quality, Relation und Manner ):
1. Quantity
(a) Make your contribution as informative as is required
(b) Do not make your contribution more informative than is required
2. Quality (Try to make your contribution one that is true)
(a) Do not say what you believe to be false
(b) Do not say that for which you lack adequate evidence
3. Relation (Be relevant)
4. Manner (Be perspicuous)
(a) Avoid obscurity
(b) Avoid ambiguity
(c) Be brief
(d) Be orderly
Diese Maximen23 werden in der Umgangssprache allerdings ständig verletzt, und Maschinen
sind nicht in der Lage die meisten Verletzungen der Maximen als solche zu erkennen und
anschließend die Aussage richtig zu interpretieren. Insbesondere im Bereich Manner ergeben
sich Schwierigkeiten, gerade was Ungenauigkeit oder Ambiguitäten betrifft.
Ganz allgemein kommt hinzu, dass sprachliche Varianz nicht in Gänze einprogrammierbar
ist. Zwar können Agents auf Synonymdatenbanken zugreifen, aber die Vielfalt menschlicher
Äußerungen machen es schwer immer die richtige Deutung eines Satzes herauszufinden – die
typisch menschliche Suggestivverneinung, Dialektwörter, umgangssprachliche Verwendung
22
Grice 1975, S. 45.
23
Ebd., S. 47ff.
12. 5 FAZIT 10
von sprachlichen Quantoren24 und vieles mehr erschweren dies.
Und zuletzt bleibt die Schwierigkeit der Sprechakttheorie selbst. Die Vielzahl an kritischen
Auseinandersetzungen sowie eine große Uneinigkeit in diesem Forschungsbereich sind ein
Indiz für die mögliche Unterdefiniertheit der Theorie. In einigen Bereichen ist die Sprech-
akttheorie unterentwickelt, so sind beispielsweise nicht alle Sprechakte auf der Ebene der
Illokution enthalten. Selbst wenn es also möglich wäre den Agents die Grundsätze der
Sprechakttheorie beizubringen, blieben die Unzulänglichkeiten der Sprechakttheorie selbst.
Der Begriff “Semantic“ Web etablierte sich also eigentlich nicht zu Recht im Kontext einer
Maschine-Maschine-Kommunikation, die auf Datenbankabfragen beruht. Hitzler, beispiels-
weise, umgeht dieses Problem, in dem er den Begriff der Semantik im Kontext der Informatik
umdeutet, und als “die Bedeutung von Worten bzw. Zeichen(-ketten) und ihre Beziehungen
untereinander“ 25 beschreibt. Aber der Begriff des “Semantic Webs“ entbehrt eigentlich
einer Rechtfertigung für seine Verwendung und vermittelt einen falschen Eindruck der
Technologie, die eben das, was die Semantik ausmacht, gar nicht zu leisten vermag.
5 Fazit
“At present, the greatest needs are in the areas of integration, standardization, develop-
ment of tools, and adoption by users.“ 26 , fasst Antoniou die Probleme des Semantic Webs
zusammen. Doch das größte Hindernis für eine schnelle Entwicklung vom Web 2.0 zum
Semantic Web sind die User, Antonious letzter Punkt: “The question is not so much a
technological but rather a practical one: Will we be able to demonstrate the usefulness of
this technology quickly and powerfully enough to create momentum (recreating something
similar to the early stages of the World Wide Web)?“ 27 Die Technologien sind entwickelt,
aber die Öffentlichkeit betrachtet die Entwicklung des semantischen Webs kritisch oder
begegnet ihm mit Desinteresse und Unwissen. Und es ist eine wichtige Frage, die sich
die Kritiker stellen: Überwiegen die Vorteile eines semantischen Webs die Nachteile? Ist
der Datenschutz in Gefahr, wenn Agents im Web das Denken übernehmen, alle Dienste
miteinander verbunden sind und Daten austauschen?
Dennoch, gerade im Bereich e-Learning oder innerhalb von unternehmens- oder organi-
sationsinternen Informationsstrukturen könnte eine semantische Aufbereitung der Daten
von großem Vorteil sein. Verknüpfte Informationen, die von einem Computer intelligent
verarbeitet werden, könnten Forschungen vorantreiben, Zeit sparen und für ein besseres
Informationsmanagement sorgen.
24
In der Umgangssprache sind Äußerungen oft unterdeterminiert und unterquantifiziert. “Der Mensch ist
ein Homo Sapiens“ ist eine definitorische Aussage, die alle Menschen meint. Die grammatikalisch ähnliche
Aussage “Der Mensch ist gern auf Reisen“ meint, dass die Mehrheit der Menschen vermutlich gerne reist,
wobei Ausnahmen nicht ausgeschlossen sind.
25
Hitzler et al. 2007, S. 13.
26
Grigoris Antonuoi 2004, S. 7.
27
Fensel 2003, S. 225.
13. 5 FAZIT 11
Gegen eine schnelle Entwicklung und semantische Aufbereitung dieser Daten spricht also
nichts. Ob und wie sich das semantische Web allgemein durchsetzen wird, wird die Zeit
zeigen.
14. Literatur 12
Literatur
Berners-Lee, Tim: Weaving the Web. London: Orion Business, 1999.
Castells, Manuel: Die Internet-Galaxie. Internet, Wirtschaft und Gesellschaft. Wiesbaden:
VS-Verlag für Sozialwissenschaften, 2008.
Densel, Dieter: The Semantic Web and Its Languages. IEEE Intelligent Systems, 2000
Nr. 15 (6), S. 67–73.
Fensel, Dieter: Spinning the Semantic Web. Bringing the World Wide Web to Its Full
Potential. Cambridge, Massachusetts, London: MIT Press, 2003.
Google: www.google.de, Stand: Mai 2010.
Grice, Herbert Paul: Logic and Conversation. In Cole, Peter/Morgan, Jerry (Hrsg.):
Syntax and Semantics, Volume 3: Speech Acts. Academic Press, 1975, S. 41–58.
Grigoris Antonuoi, Frank van Harmelen: A Semantic Web Primer. Cambridge, Massa-
chusetts, London: MIT Press, 2004.
Gruber, Tom: Toward principles for the design of ontologies used for knowledge sharing.
International Journal of Human-Computer Studies, 43 1995, S. 907–928.
Hitzler, Pascal et al.: Semantic Web: Grundlagen. Berlin: Springer, 2007.
Lassila, Ora/Adler, Mark: Semantic Gadgets: Ubiquitous Computing Meets the Se-
mantic Web. In Fensel, Dieter (Hrsg.): Spinning the Semantic Web. MIT Press, 2003,
S. 363–376.
Löbner, Sebastian: Semantik. Eine Einführung. Berlin: Gruyter, 2003.
Merschmann, Helmut: Das Internet soll klüger werden.
www.spiegel.de/netzwelt/web/0,1518,561831,00.html, Stand: Mai 2010.
Naughton, John: A brief history of the future - From radio days to internet years in a
lifetime. Woodstock, United States of America: overlook press, 2000.
Searle, John: What is a Speech Act? 1965, S. 39–53.
Searle, John: Indirect Speech Acts. In Cole, Peter/Morgan, Jerry (Hrsg.): Syntax
and Semantics, Volume 3: Speech Acts. Academic Press, 1975a, S. 59–82.
Searle, John: A taxonomy of illocutionary acts. 1975b, S. 344–369.
Tim Berners-Lee, James Hendler, Lassila Ora: The Semantic Web: a new form of
Web content that is meaningful to computers will unleash a revolution of new possibilities.
Scientific American, 2001 Nr. 284 (5), S. 34–43.
W3Ca: Resource Description Framework (RDF). http://www.w3.org/RDF, Stand: August
2010.
15. Literatur 13
W3Cb: Web Ontology Language (OWL). http://www.w3.org/2004/OWL, Stand: August
2010.
Wolfram Alpha: www.wolframalpha.com, Stand: Mai 2010.