Home   Was ist ot ?   Regeln   Mitglieder   Maintainer   Impressum   FAQ/Hilfe  

Einige Tendenzen der Wissensgesellschaft

Maintainer: Torsten Wöllert, Version 1, 05.10.2000
Projekt-Typ: halboffen
Status: Archiv

Vorbemerkungen

(1) Dieser Text versucht, einige interessante Entwicklungstendenzen in Richtung Wissensgesellschaft zu beleuchten und in diesem Zusammenhang die Stellung des zur Zeit in Diskussion befindlichen Projekts einer Freien Enzyklopädie „Encyclopaedia Aperta" (http://www.opentheory.org/enzyklopaedie) zu bestimmen.

(2) Gegebenenfalls könnte dieser Text auf der geplanten Oekonux-Konferenz im Frühjahr 2001 vorgestellt und diskutiert werden. Er wendet sich jedoch auch und vor allem an Menschen, die sich mit dem Thema noch nicht intensiv befasst haben und verzichtet deshalb so weit wie möglich auf die Verwendung und Diskussion spezieller Fachtermini. Später könnte man versuchen, diesen Text in geeigneten Medien zu platzieren und dadurch die beschriebenen Entwicklungen bekannter zu machen.

(3) Unter Information werden alle Objekte verstanden, die geeignet sind, zur Bildung von Wissen beizutragen oder die ein nichtgegenständlicher Ausdruck von Wissen sind. Insofern umfasst der „Informationsmarkt" neben Druckerzeugnissen auch Computerprogramme, Datenbanken und audio- visuelle Produkte. Das Wort „Frei" (mit großem Anfangsbuchstaben) wird verwendet, um Dinge zu kennzeichnen, die analog zu Freier Software ohne Einschränkungen benutzt, verbreitet und verändert werden können, solange von ihnen abgeleitete Dinge ebenfalls Frei in diesem Sinne sind und ihre Abkunft erkennbar bleibt.

(3.1) Definitionen, 08.10.2000, 13:59, Stefan Merten: Ich würde es für sinnvoll halten, hier die Begriffe "Wissen", "Information" und vielleicht auch noch "Daten" nochmal genauer zu definieren. "Daten" wären für mich der übergreifende Begriff, aus dem sich alles ableitet. "Informationen" wären für mich `when it makes a difference' - z.B. weil ich mit ihrer Hilfe einen Algorithmus operationalisieren kann oder aufgrund neuer Einsichten mein Leben ändere. "Wissen" wäre für mich etwas, was ich Menschen vorbehalten würde und dessen Gesamtmenge ich für endlich halten würde - begrenzt durch die endliche Kapazität menschlicher Gehirne. Vielleicht ein bißchen krude dies ;-) .

(3.1.1) Re: Definitionen, 09.10.2000, 14:10, Stefan Meretz: Diese Definitionen sind sicher sinnvoll, nur wird eine Verständigung darüber unter Garantie schwierig. Allein zu "Information" gibt es mindestens 10 verschiedene. Und meine Position ist dann dazu die elfte Variante: "Information" lässt sich nämlich _nicht_ algorithmisch operationalisieren, das geht nur mit "Zeichen" resp. "Daten". "Information" _ist_ "Bedeutung" und insofern auch (aber nicht nur) für Menschen da. Und "Wissen" halte ich für genuin unbegrenzt, da es nix mit der Kapazität des menschlichen Gehirns zu tun hat, weil Menschen ihr "Wissen" auch "gegenständlich" speichern (ein Glück!).

(3.1.2) Re: Definitionen, 11.10.2000, 18:24, Torsten Wöllert: Ich habe bisher bewusst darauf verzichtet, gültige Definitionen für solche Begriffe aufstellen zu wollen. Das würde wohl den Rahmen dieses Textes sprengen. Natürlich müssen im Text verwendete Begriffe in ihrer Verwendung eindeutig sein, aber nur auf diesen Text bezogen. Der Einfachheit halber habe ich "Wissen" gar nicht erst erklärt und "Information" nur soweit unbedingt erforderlich. Wenn der Text dadurch unverständlich wird, muss man das natürlich ändern. Ist das so?

(3.1.2.1) Re: Definitionen, 12.10.2000, 10:32, Stefan Merten: Stimmt solche Definitionen gehören eigentlich ins Hauptprojekt ;-) . Unverständlich wird der Text nicht, aber an einigen Stellen fand ich die Verwendung der Worte schon ziemlich willkürlich. Oft wußte ich nicht, warum hier jetzt Information und dort jetzt Wissen das Richtige gewesen sein soll. Aber das kann natürlich damit zusammenhängen, daß ich andere Definitionen verwende. Aber vielleicht wäre ein Konsistenz-Check dennoch sinnvoll?

(3.1.2.1.1) Re: Definitionen, 23.10.2000, 14:38, Torsten Wöllert: Nach einem Konsistenz-Check habe ich die Absätze 6. und 15. umformuliert. Ist die Sache jetzt etwas klarer? Ich habe Daten völlig außen vor gelassen und versucht, das Schema Information --> Wissen --> Wissensgesellschaft durchzuziehen.

(3.2) Information (Klarstellung), 25.10.2000, 19:08, Torsten Wöllert: ... Ausdruck von Wissen sind. Dabei kann sich Information sowohl auf materielle Gegenstände als auch auf andere Information beziehen. Insofern umfasst der „Informationsmarkt" ...

(3.3) 18.02.2005, 18:38, Hans-Gert Gräbe: All dieses Zeugs muss nicht nur beschafft, sondern auch angeeignet werden. Das wird hier vollkommen ausgeblendet. Insofern solltest du korrekter vom "Informationsträgermarkt" sprechen. Auch das "Frei" in Freier Software bezieht sich ausschließlich auf die (freizügig mögliche) Beschaffung. Wenn du dir das Zeugs nicht aneignest, sprich im Minimalfall auf deinem Computer zum Laufen bringst, dann nützt es dir absolut nix. Und wenn du gar was (substanziell) verändern willst, dann musst du dir das Zeugs so was von aneignen, dass du schon fast denkst, du hättest es selbst gemacht.
"Abkunft erkennbar" halte ich für Quatsch, das geht gar nicht, wenn eine Idee durch 20 Köpfe gegangen ist. Verlangt die GPL so auch nicht. Einzig "Attribution" der wesentlichen Teile ist sinnvoll (und in der Wissenschaft Standard). Wissen ist ein inhärent kollektives Phänomen, das Einzelzuschreibungen wie im Bereich der "geistigen Eigentumsrechte" gefordert extrem erschwert.

(4) Der wichtige Bereich der sozialen Voraussetzungen für eine Wissensgesellschaft wurde bewusst ausgespart, um den Umfang des Textes zu beschränken. Eigentlich wollte ich auch noch OpenTheory in den Text einarbeiten, habe es aber irgendwie nicht stimmig gekriegt und deshalb vorerst draußen gelassen. Außerdem gibt es bestimmt jede Menge Leute, die sich da besser auskennen als ich - nicht wahr Stefan :-)

Bestandsaufnahme

(5) Gegenwärtig wächst die Bedeutung von Wissen und seiner Beschaffung und Anwendung in nahezu jedem Bereich der Produktion. Besonders ausgeprägt ist dies in dem gerne „New Economy" genannten Teil des tertiären Sektors, der in allen industriell entwickelten Staaten an Bedeutung stark zunimmt. Vor allem dort wird Wissen zunehmend zum Rohstoff, manchmal sogar fast zum einzigen.

(5.1) Rohstoff Wissen, 18.02.2005, 18:39, Hans-Gert Gräbe: Die Metapher vom "Rohstoff Wissen" hat ein sehr spezielles Paradigma im Visier, das der angewandten Wissenschaften. Dort wird "nützliches Wissen" aus einem Pool vorhandener Theorien und Kalküle auf praktische Sachverhalte angewendet
Und dann impliziert der Begriff natürlich eine Analogie zu anderen Rohstoffen, die man nur zu schürfen brauche, um daran Eigentumsrechte zu erwerben. Die alte Marxsche Fußnote "Einmal entdeckt, kostet das Gesetz über die Abweichung der Magnetnadel im Wirkungskreis eines elektrischen Stroms oder über Erzeugung von Magnetismus im Eisen, um das ein elektrischer Strom kreist, keinen Deut" muss da heute wohl erweitert werden um die Passage - "es sei denn, du sicherst dir ein Patent darauf".

(6) Eine Eigenheit des Rohstoffs Wissen ist jedoch, dass es sich nicht nur um einen erneuerbaren, sondern sogar um einen stets wachsenden, sich nicht verbrauchenden und mit überschaubaren Kosten reproduzierbaren Rohstoff handelt. Mit der neuen Informationstechnik sinken nun die Kosten für die Wissensreproduktion dramatisch, gleichzeitig nimmt die Bedeutung des Wissens zu. Steht die so oft be- und versprochene Wissensgesellschaft nun vor der Tür?

(6.1) Kopierkosten, 08.10.2000, 14:05, Stefan Merten: Zunächst: Auch im Sinne obiger Definitionsfragen sinken vor allem die Kosten der Kopien digitaler Daten. Die Informationsmenge steigt während die Menge des Wissens sich verändert. Dann: Mir wäre es wichtig darauf hinzuweisen, daß diese Potenz historisch echt neu ist.

(6.1.1) Re: Kopierkosten, 11.10.2000, 18:13, Torsten Wöllert: I.O.

(6.2) Neue Fassung, 23.10.2000, 14:30, Torsten Wöllert: Eine Eigenheit des Rohstoffs Wissen ist jedoch, dass es sich nicht nur um einen erneuerbaren, sondern sogar um einen stets wachsenden, sich nicht verbrauchenden und mit überschaubaren Kosten reproduzierbaren Rohstoff handelt. Wissen wird vor allem durch Auswahl, Analyse, Strukturierung und Austausch von Informationen gewonnen, Informationen sind also gewissermaßen der Stoff, aus dem Wissen gemacht wird. Mit der neuen Informationstechnik sinken nun die Kosten für die das Kopieren und Verteilen digital bearbeitbarer Informationen und damit die Kosten für die Wissensreproduktion dramatisch, die Informationsmenge steigt während die Menge des Wissens sich verändert. Das ist in diesem Ausmaß historisch neu, gleichzeitig nimmt die Bedeutung des Wissens zu. Steht die so oft be- und versprochene Wissensgesellschaft nun vor der Tür?

(6.3) 18.02.2005, 18:40, Hans-Gert Gräbe: Hier wird ganz deutlich, wie du der Fiktion Wissensreproduktion = Beschaffung aufsitzt. Und neben den neuen Informationstechniken brauchst du mindestens noch die folgenden beiden Komponenten, um die Beschaffungshürden zu schleifen: die digitalisierten Inhalte und das Web als Kommunikationsmedium. Von der vierten Hürde, der juristischen, ganz zu schweigen. Um beim Schleifen derselben zu helfen sammelst du ja hier Argumente.

(7) Eine der entscheidenden und noch offenen Fragen in Bezug auf die Wissensgesellschaft ist, wie der Zugang zum Wissen gestaltet wird. Diese Frage hat neben einem starken gesellschaftspolitischen Faktor auch mit Technik zu tun, wird aber gerne auf den letzteren Aspekt reduziert. Man spricht gerne vom Zugang zum Internet für alle, große Firmen reißen sich neuerdings geradezu darum, Schulen werbewirksam dazu zu verhelfen. Damit ist dann zwar der physische Zugang hergestellt, wer das Internet aber ein wenig kennt, weiß, dass das mit Wissen recht wenig zu tun hat. Zum einen weil das Gros der im Internet lagernden oder besser zirkulierenden Daten unter dem Blickwinkel des Wissens schlichtweg als Müll eingestuft werden muss, zum anderen weil einem der Zugang ohne die Fähigkeit, die Spreu vom Weizen zu trennen nichts nützt.

(8) Gerade in diesem Bereich ist das Internet im Augenblick extrem unterentwickelt. Man muss sich wirklich erst eine Webseite ansehen, um ihren Inhalt beurteilen zu können. Ob man ihn dann versteht, ist noch eine andere Frage, die viel mit Bildung und Chancengleichheit zu tun hat, hier aber nicht vertieft werden soll. Natürlich gibt es Suchmaschinen und Webkataloge, die versuchen, einem diese Arbeit zu erleichtern und etwas Struktur in den Informationsbrei des Internets zu bringen, denn Wissen hat ja auch viel mit Struktur zu tun. Sie decken aber bei weitem nicht den gesamten Inhalt des Internets ab, ja das Internet wächst so schnell, dass selbst bei vollautomatisierten Hochleistungssuchmaschinen der Anteil nicht erfasster Webseiten immer mehr wächst. Handverlesene Webkataloge wie sie von verschiedenen Firmen mit Yahoo als Vorreiter angeboten werden, haben in der gegenwärtigen Form da ohnehin keine Chance.

(9) Darüber hinaus sind diese Werkzeuge zur Wissensgewinnung auch nur sehr eingeschränkt nutzbar, da automatisierte Suchmaschinen bei der Müllaussonderung nicht sehr hilfreich sind. - Wer sich einmal über die vielen sinnlosen Treffer zum Beispiel bei der Suchmaschine Altavista geärgert hat, wird das bestätigen können. - Also muss man sich die gefundenen Seiten sowieso selbst ansehen. Die meisten manuell erstellten Webkataloge geben zwar eine Kurzbeschreibung der katalogisierten Seiten, in vielen Sachgebieten sind sie jedoch einfach nicht umfassend genug oder veraltet, d.h. die katalogisierte Seite existiert gar nicht mehr. Die bisherige Herangehensweise stößt dort klar an ihre Grenzen.

(9.1) google, 01.01.2002, 13:19, Karl Dietz: hi, ich wollte hier auf google hinweisen, naja die meisten werden es kennen. fiel mir nur ein, weil altavista kritisiert wurde. google ist so genial und es ist eine maschine. von menschen gemachte dinge sind auch gut: zb ot, cool, vab, coforum, ... gruesse, karl, der im bereich wissensgewinnung sehr engagiert ist.

(10) Zeitgleich und, mal abgesehen von der technischen Verbreitung ihrer Inhalte, ziemlich unabhängig von der gesamten Entwicklung des Internets bestehen die großen kommerziellen Informationsdienste und Datenbankbetreiber. Diese weisen nicht die oben genannten Schwächen auf und sind insofern für die Vermittlung von Wissen von Bedeutung. Es gibt Schätzungen, die besagen, dass alle wesentlichen Informationen in weltweit ungefähr 5500 Datenbanken gespeichert sind. Diese Informationen sind aber nur beschränkt nutzbar, weil sie sozusagen künstlich verknappt und dann teuer verkauft werden.

(11) Nun ist die Sammlung von Information und ihre wissensrelevante Aufbereitung zur Zeit mit hohen Kosten verbunden, die von im gewöhnlichen „Informationsmarkt" operierenden Firmen nur dann aufgebracht werden können, wenn die Informationen durch Verknappung oder im Extremfall Monopolbildung teuer verkauft werden können.

(12) Gelingt diese Verknappung, arbeiten die an diesem Mechanismus beteiligten Firmen in ihrer Gesamtheit in der Regel profitabel, das Resultat dieses stark beschränkten Marktgeschehens ist jedoch relativ weit vom möglichen Optimum entfernt. Ein anschauliches Beispiel dafür ist der „Markt" für Computer-Betriebssysteme, der nach einer Marktbereinigung in der Kinderphase und geschützt durch Software-Patente mittlerweile faktisch als Oligopol hochprofitabel arbeitet, dessen Resultate in der Masse aber weit hinter dem Möglichen und Nötigen zurückbleiben, ohne dass dies die Stellung der Teilnehmer nennenswert gefährden könnte. Eine Veränderung der Lage kann nur von außen kommen, so geschehen durch das Erscheinen von Linux auf der Bildfläche und neuerdings eventuell durch antimonopolistische Maßnahmen der US-Regierung, deren Ergebnisse jedoch abzuwarten bleiben.

(13) Gelingt die Verknappung der Information jedoch nicht oder nur unvollkommen, so sind die Gewinnerwartungen der in diesem Bereich aktiven Firmen eher gering, was wiederum ihre Fähigkeit und, im Zeitalter des mobilen und stets nach Höchstrenditen strebenden Kapitals, ihren Willen zur bestmöglichen Sammlung und Aufbereitung von Informationen beeinträchtigt. Als Beispiel dafür kann der Bereich enzyklopädischer Nachschlagewerke dienen. Berücksichtigt man die im Vergleich zu früheren Jahren ungleich größeren Möglichkeiten der Informationssammlung und -aufarbeitung, so sind ihre Qualität relativ zum darstellbaren Wissen, ihre Breitenwirkung und damit auch ihre Stellung in der Gesellschaft kontinuierlich gesunken.

(14) In jedem Fall sind die Ergebnisse des kommerziellen „Informationsmarktes" in den innovativsten Bereichen mehr oder weniger unbefriedigend, jedenfalls weit vom möglichen Optimum entfernt, insbesondere was die Vielfalt wissensrelevanter Informationen angeht. Außerdem werden selbst diese Ergebnisse nur mit einer systematischen Verknappung „wertvoller" Informationen erreicht, was von vornherein die übergroße Mehrheit der Weltbevölkerung von ihrer unmittelbaren Nutzung ausschließt.

(15) Für eine Wissensgesellschaft ist es aber wichtig, Informationen offen zu halten und für ihre möglichst breite Streuung und Aufnahme zu sorgen. Nur dann kann sich eine stabile Grundlage für eine solche Gesellschaft bilden und das Wissen seine Eigenheiten als besonderer Rohstoff entfalten. Insofern ist das Modell der kommerziellen Informationsanbieter problematisch für die Entwicklung einer Wissensgesellschaft, es sei denn, ein reicher und großzügiger Mäzen kaufte die benötigten wissensrelevanten Informationen auf und stellte sie der Allgemeinheit zur Verfügung. Dies wäre eine systemimmanente Lösung des Problems, sie erscheint jedoch in Zeiten knapper öffentlicher Kassen und kaum sozial verantwortlichen Kapitals als unrealistisch.

(15.1) Klarstellung, 23.10.2000, 14:33, Torsten Wöllert: Für eine Wissensgesellschaft ist es aber wichtig, Informationen als Rohstoff für die Wissensproduktion und -reproduktion offen zu halten ...

Erkennbare Tendenzen der Wissensgesellschaft

(16) Die Sammlung und Aufbereitung von Informationen wird fortlaufend leistungsfähiger und kostengünstiger werden. Dies ist eine wichtige Voraussetzung, um eine kontinuierliche und reichhaltige wissensrelevante Produktion sicherzustellen. Insbesondere müssen aber auch die Findbarkeit und Bewertbarkeit von Informationen verbessert werden, um in einer Wissensgesellschaft ihre bedarfsgerechte Verteilung und Aufnahme zu gewährleisten.

(17) Natürlich steckt die technische Entwicklung in diesen Bereichen noch in den Kinderschuhen oder bestenfalls in der Pubertät und wird sicher erheblich zur Schaffung der Voraussetzungen der Wissensgesellschaft beitragen. Zu nennen sind dort vor allem intelligentere Suchalgorithmen, die Kennzeichnung von Informationen durch allgemein verständliche Metadaten und eine zunehmend leistungsfähigere elektronische Vernetzung.

(17.1) Metadaten, 08.10.2000, 14:06, Stefan Merten: Kennst du die Bemühungen um die Dublin Core Metadata Initiative [http://purl.oclc.org/dc/]?

(17.1.1) Re: Metadaten, 11.10.2000, 18:15, Torsten Wöllert: Wir wollen Dublin Core bei der Encyclopaedia Aperta verwenden, wahrscheinlich RDF-codiert. Ein paar Gedanken dazu hab ich unter http://www.opentheory.org/enzyklop_metada zur Diskussion gestellt.

(18) Eine weitere erkennbare Tendenz ist die zunehmende Verbreitung hochqualitativer Informationen, ohne dass der Nutzer dafür Geld bezahlen muss. Ausgehend von den USA und unter aktiver Mitwirkung der dortigen Regierung, die viele der unter ihrer Kontrolle stehenden Informationen gratis ins Internet gestellt hat, ist es mittlerweile zu einer etablierten Gewohnheit geworden, (fast) jegliche Art von öffentlichen Informationen kostenlos beziehen zu können - wenn man die richtige Quelle findet. Als Beispiel dafür seien die Börsenkurse in Echtzeit genannt, die vor einigen Jahren noch so teuer waren, dass ihre Nutzung professionellen Anlegern vorbehalten blieb. Heute findet man sie kostenlos bei mehreren Finanzinformationsanbietern in Internet.

(19) Daraus resultieren ernste wirtschaftliche Probleme für traditionelle kommerzielle Datenbankbetreiber, deren Kundenkreis und Einnahmen pro verkaufter Information sinken. Einige sind deswegen dazu übergegangen, selbst ihre Informationen zumindest teilweise, als Appetithäppchen sozusagen, gratis anzubieten. So sind Informationsaktivitäten im Internet operationell meist chronisch defizitär. Meist werden diese Defizite entweder durch den Enthusiasmus der Betreiber oder durch eventuelle Börsengewinne kompensiert, die auf einer m.E. fehlgeleiteten Anlegerphantasie über zukünftig winkende Profite beruhen, oder aber durch finanzkräftige traditionelle Verlage ausgeglichen, die einen Zukunftsmarkt besetzen und ihn nicht der Konkurrenz überlassen wollen bzw. durch Telekom-Firmen, die vorrangig an der Auslastung ihrer Netze interessiert sind. Mittelfristig wird aber auch hier das oben beschriebene Dilemma aller Bereiche mit unvollkommener oder nicht existenter Verknappung auftreten. Es wird sich, abgesehen von Nischen, kein dauerhaft hochprofitables Geschäftsmodell finden lassen. Allein durch Werbeeinnahmen werden sich allenfalls ein paar meistbenutzte Internetdienste finanzieren lassen (sie z.B. den Artikel „Fehlentwicklung Bannerwerbung" vom 22.9.2000 unter http://www.intern.de/news/937.html), eine weitere Konzentration der kommerziellen Informationsanbieter ist also vorprogrammiert.

(19.1) Preis Null, 08.10.2000, 14:07, Stefan Merten: Genau: Nur der Preis Null ist im Internet konkurrenzfähig.

(20) Das ebenfalls zur Zeit angewandte Prinzip, mehr oder weniger heimlich gesammelte und aufbereitete Nutzerdaten an interessierte Firmen der Werbewirtschaft zu verkaufen, scheint auch kein besonders tragfähiges Geschäftsmodell zu sein, da es auf der Verletzung gängiger und von der Mehrheit der Bevölkerung getragener Datenschutzstandards beruht. Gegenwärtig wird die herrschende Rechtsunsicherheit und die Unerfahrenheit im Umgang mit dem Internet ausgenutzt. Diese Defizite dürften aber in absehbarer Zeit nach und nach behoben werden, sei es durch rechtliche Maßnahmen (z.B. Umsetzung der Datenschutzrichtlinie der EU), durch technische Entwicklungen wie dem eXtensible Name Service XNS (siehe http://www.xns.org) oder durch geändertes Nutzerverhalten.

(21) Gleichzeitig wird deutlich, dass durch eine Verknappung von Information die Entwicklung einer Wissensgesellschaft behindert wird, falls man unter Gesellschaft nicht nur die „feine Gesellschaft" versteht. Diese Verknappung ist aber eine wichtige Voraussetzung eines langfristig profitablen „Informationsmarktes", für eine kommerzielle Herstellung und Verteilung von Information. Da eine dauerhafte Verknappung allein durch Marktmechanismen wegen der besonderen Eigenschaften von Information (Reproduzierbarkeit usw.) nicht zu bewerkstelligen ist, versuchen die Marktteilnehmer diesem Dilemma durch nicht marktkonformes Verhalten (z.B. Microsoft), durch Megafusionen (z.B. AOL - Time-Warner - EMI), durch verminderte Entwicklungskosten und damit oft reduzierte Qualität (z.B. Enzyklopädien) oder durch verstärkten Rückgriff auf staatliche Machtmechanismen (z.B. Software-Patente) zu entgehen. Der dafür zu betreibende Aufwand und die dadurch hervorgerufenen Produktivitätseinbußen vergrößern sich jedoch mit fortschreitender, die Verbreitung von Information begünstigender Technik immer mehr. Faktisch jede neuere Entwicklung auf diesem Gebiet, als Stichworte seien nur die Verbreitung von Musik im MP3-Format und der geknackte Kopierschutz von DVDs genannt, bestätigt diese Tendenz.

(22) Auf Grund der unbefriedigenden Ergebnisse dieses „Informationsmarktes" haben sich in den innovativsten und damit am stärksten behinderten Bereichen Lösungen oder Lösungsansätze entwickelt, die über die Mechanismen dieses beschränkten Marktes hinausgehen. Logischerweise begann es in einem Kernbereich der neuen Technologien, den Betriebssystemen für Computer.

(23) Seit Beginn der 1990er Jahre machten sich verschiedene unzufriedene Programmierer daran, in ihrer Freizeit und ohne kommerzielle Interessen ein noch unvollkommenes Computer-Betriebssystem so zu verbessern, dass es ihren jeweiligen Ansprüchen und denen ihrer Bekannten genügte. Durch die Vielfalt der Bedürfnisse der Beteiligten und die Möglichkeit ihrer direkten Befriedigung entstand eine Programmbibliothek, die denen der kommerziellen Marktteilnehmer kaum nachsteht, ihnen in einigen Punkten sogar überlegen ist. Sie ist heute allgemein unter der Bezeichnung Linux bekannt, entfaltet eine bemerkenswerte Entwicklungsdynamik und wird vom Quasi-Monopolisten Microsoft als größte Bedrohung angesehen.

(24) Eine Hauptbedingung dafür war, neben der Vernetzung der Beteiligten über das Internet, die Offenheit und freie Verfügbarkeit aller Informationen durch das systematische Offenlegen des Quellcodes aller Programme (Open Source). Durch die Verwendung der GNU General Public License (siehe http://www.gnu.org/copyleft/gpl.txt) wurde keinerlei Informationsverknappung zugelassen. Die durch diesen Ansatz freigesetzten Produktivkräfte sind so bemerkenswert, dass es eine ganze Reihe mehr oder weniger theoretischer Erklärungsversuche dafür gibt. Ein Kernpunkt ist aber in jedem Fall, dass die Entwicklung durch die unmittelbare Befriedigung der Bedürfnisse und Interessen der Beteiligten durch das Projekt an sich und nicht durch den Ausgang eines Geschehens am „Informationsmarkt" vorangetrieben wurde und wird.

(25) Angespornt durch dieses Beispiel gründete sich ein internationales Projekt, um den oben beschriebenen Missstand der im Internet verfügbaren unzureichenden Suchkataloge zu beheben, auch dies ein äußerst innovativer Bereich. Im Open Directory Project (http://www.dmoz.org) katalogisieren und beschreiben Freiwillige Schritt für Schritt sie interessierende Webseiten, die dann zusammengefasst allen Nutzern des Internets zur freien Verfügung gestellt werden, so lange das Open Directory Project als Quelle genannt wird. Die Verantwortlichen für die verschiedenen Themengebiete werden jeweils mit ihrer elektronischen Anschrift genannt, so dass sie weitere Anregungen von Nutzern des Katalogs erhalten und einarbeiten können. Dadurch wird nicht nur die Qualität des Suchkatalogs verbessert, sondern die Verantwortlichen erhalten auch wertvolle Informationen in den sie interessierenden Fachgebieten. Auf Grund der großen Anzahl Mitwirkender, die von einer kommerziell arbeitenden Firma überhaupt nicht zu bezahlen wäre, soll ein Suchkatalog bisher unerreichter Qualität entstehen. Bisher werden die Daten des Open Directory Project bereits von großen automatischen Suchmaschinen wie Google, Lycos oder HotBot verwendet.

(26) Inzwischen breitet sich dieser Ansatz auch in eher traditionellen Bereichen aus. So gibt es im Gefolge von Linux schon weit fortgeschrittene Bemühungen (siehe http://www.linuxdoc.org, http://www.oswg.org oder http://www.seul.org/doc), Freie Dokumentation für Freie Software zu schaffen, denn nur mit einer entsprechend verwendbaren Dokumentation erschließt sich der volle Wert Freier Software. Als Folge von Open Source entstand das Modell Open Content, die sich beide dadurch auszeichnen, dass sämtliche entsprechend deklarierten Objekte (Programme, Dokumente usw.) ohne Einschränkungen genutzt und verändert werden können, so lange die resultierenden Objekte der Allgemeinheit unter den gleichen Bedingungen zur Verfügung gestellt werden.

(27) Das Modell Open Content wird mittlerweile auch auf andere Bereiche als die Dokumentation Freier Software angewendet, insbesondere im akademischen Bereich (siehe http://www.opencontent.org). Dies korrespondiert einerseits mit der Jahrhunderte alten Tradition, Forschungsergebnisse zwischen Wissenschaftlern auf nichtkommerzieller Basis auszutauschen und sie der Allgemeinheit zur Verfügung zu stellen, andererseits machen sich im akademischen Bereich auch die Einschränkungen des „Informationsmarktes" besonders stark bemerkbar, da das Zielpublikum nicht ausreichend groß ist, um auf kommerzieller Basis einen niedrigen „Stückpreis" pro verkaufter Information zu erreichen (kein Massenmarkt), die resultierenden hohen Preise akademische Aktivitäten spürbar behindern, Informationen aber unabdingbar für diese Aktivitäten sind.

(27.1) Austausch?, 08.10.2000, 14:10, Stefan Merten: Eben nicht *ausgetauscht* sondern sie der (wissenschaftlichen) Allgemeinheit zur Verfügung gestellt. Das funktioniert ja nicht so, daß ich ein Paper nur dann kriege, wenn ich selbst eins abgeliefert habe.

(27.1.1) Re: Austausch?, 11.10.2000, 18:17, Torsten Wöllert: Ich meinte das eher in Richtung "Gedankenaustausch", nicht in Richtung Tausch.

(28) Ein weiterer Schritt in diese Richtung ist die Entwicklung Freier Enzyklopädien, die entsprechend dem Modell Open Content ohne Einschränkungen nutz- und veränderbare Informationen sammeln und der Allgemeinheit strukturiert zur Verfügung stellen. Sie können als eine der Grundlagen für eine Wissensgesellschaft betrachtet werden, da sie wissensrelevante Informationen allgemein verfügbar halten (im Internet) und ihre ständige Aktualisierung organisieren, gleichzeitig dem Dilemma der kommerziellen Informationsanbieter aber entgehen. Vorausgesetzt dass durch die Beteiligung an einer Freien Enzyklopädie genügend entsprechend qualifizierte Menschen ihre geistigen Interessen verfolgen und ihre Bedürfnisse befriedigen können, erscheint es als wahrscheinlich, dass sie sich zu einer reichen Wissensquelle entwickeln werden, wie sie in Qualität, Vielfalt und Nutzbarkeit bisher noch nicht erreicht wurde.

(29) Darüber hinaus kann die Entwicklung von Open Content und insbesondere von Freien Enzyklopädien auch als Gegenentwicklung zu einer durch eine gewaltige Ausmaße annehmende Medienkonzentration hervorgerufenen Vereinheitlichung der Inhalte und Gedanken gesehen werden. Unter dem Gesichtspunkt, dass geistige Vielfalt („intellectual diversity") für die Entwicklung der menschlichen Gesellschaft ebenso wichtig ist wie biologische Vielfalt („biological diversity") anerkanntermaßen für die Natur, könnte sich die in Freien Enzyklopädien enthaltene Vielfalt als wichtiger Baustein der Wissensgesellschaft erweisen.

(30) Auf dem Gebiet der Freien Enzyklopädien bestehen bereits vielfältige Aktivitäten. Hier seien nur einige Beispiele genannt:

(31) Das GNU Collaborative International Dictionary of English (GCIDE) (siehe ftp://prep.ai.mit.edu/gnu/dictionary/ und http://www.ibiblio.org/webster/) beruht auf einer elektronischen Version des „Webster's Revised Unabrigded Dictionary" von 1913, dessen Urheberschutz bereits abgelaufen ist und das somit von jedem frei benutzt werden kann, das sich also in der „Public Domain" befindet. Die elektronische Version wird durch die GNU General Public License (siehe http://www.gnu.org/copyleft/gpl.txt) geschützt, um eine Informationsverknappung auszuschließen. Auf dieser Grundlage wird von Freiwilligen ein umfassendes Freies Wörterbuch der englischen Sprache entwickelt.

(32) Nupedia (http://www.nupedia.com) ist ein Projekt aus den USA, das sich zum Ziel gesetzt hat, durch die Mitwirkung vieler Freiwilliger aus dem akademischen Bereich die größte jemals bestehende Universalenzyklopädie zu entwickeln. Aufbau und Ausrichtung folgen den traditionellen Mustern einer klassischen Enzyklopädie. Die Artikel werden also von ausgesuchten, in der akademischen Welt anerkannten Spezialisten geschrieben und sollen möglichst objektiv und ausgewogen sein. Alle Artikel werden in einer Sprache (Englisch) verfasst und später gegebenenfalls für Ausgaben in anderen Sprachen übersetzt, die Autoren kommen also vorzugsweise aus einem Sprachraum. Der gesamte Inhalt der Nupedia steht jedoch allen Nutzern kostenlos zur freien Verfügung, so lange Nupedia als Quelle genannt wird.

(33) Die Freie Enzyklopädie „Encyclopaedia Aperta" (http://www.opentheory.org/enzyklopaedie) verfolgt über die freie Verfügbarkeit des Inhalts hinaus einen neuen Ansatz. Gehen alle oben beschriebenen Projekte davon aus, dass Informationen in Englisch verfasst, später gegebenenfalls in andere Sprachen übersetzt werden und sich kulturell sehr stark an den in den USA gebräuchlichen Praktiken anlehnen, soll mit der „Encyclopaedia Aperta" eine wirklich internationale Enzyklopädie entstehen, deren Beiträge von den Projektteilnehmern jeweils in ihrer Muttersprache abgefasst werden. Es werden also Übersetzungen aus jeder in alle Sprachen möglich, sofern sich Freiwillige dafür finden, die verschiedenen Sprachversionen der Enzyklopädie werden also nicht deckungsgleich sein. Über die Aufnahme von Artikeln und ihre Platzierung in der Enzyklopädie entscheiden die Teilnehmer bei der Erarbeitung der jeweiligen Sprachversion, wodurch der kulturellen Vielfalt in der Welt Rechnung getragen wird.

(34) Im Gegensatz zu traditionellen Enzyklopädien wird die reale Vielfalt von Auffassungen und Interpretationen durch nebeneinander stehende Definitionen des gleichen Begriffs repräsentiert. Im Vordergrund steht also nicht, möglichst objektiv und ausgewogen geschriebene Artikel zu sammeln, wobei solche Artikel natürlich sehr wertvoll sind, sondern ein möglichst breites Spektrum von Auffassungen zu repräsentieren und diese für die Wissensgewinnung nutzbar zu machen. Dies soll unter anderem durch die aktive Einbeziehung von globalen „Randgruppen", die zusammen genommen die Mehrheit der Weltbevölkerung ausmachen, erreicht werden.

(35) Um die notwendige Qualität der Enzyklopädie sicherzustellen, erhalten alle aktiven Projektteilnehmer die Möglichkeit, die Qualität der von den Verantwortlichen des jeweiligen Themenbereichs ausgewählten Artikel im Bereich ihrer eigenen Aktivität zu bewerten. Diese zusammengefasste Bewertung wird dem Nutzer des betreffenden Artikels angezeigt, so dass ihm die Orientierung erleichtert wird, ohne ihm jedoch als weniger brauchbar bewertete Informationen vorzuenthalten. Das klassische Kriterium der akademischen Reputation des Autors spielt also nicht mehr die herausragende Rolle wie bei traditionellen Enzyklopädien.

(36) Damit wird das Internet nicht nur als technisches Übertragungsmedium begriffen, sondern auch in seiner sozialen Dynamik erfasst. Voraussetzung für diese Dynamik ist in allen geschilderten Fällen, dass eine Privatisierung, also das Abschließen und anschließende Verkaufen der Ergebnisse der gemeinschaftlichen Anstrengung an eben diese Gemeinschaft, durch geeignete „Copyleft"-Lizenzen ausgeschlossen wird.

(36.1) GNUPedia, 18.01.2001, 14:59, Torsten Wöllert: Die neueste Entwicklung auf diesem Gebiet ist das von der Free Software Foundation, der "Erfinderin" des Copyleft, und ihrer Gallionsfigur Richard Stallman gestartete GNUPedia-Projekt (http://www.gnu.org/encyclopedia). Vieles bleibt dort noch auszuarbeiten, aber der hauptsächliche neue Gedanke gegenüber dem jetzigen Diskussionsstand des Projekts Encyclopaedia Aperta scheint zu sein, dass es keinerlei für ihren Inhalt verantwortliche Organisation mehr geben soll. Jeder trägt bei was er will, und Mist wird nicht ausgeschlossen sondern von anderen Teilnehmern kritisiert und damit unglaubwürdig gemacht. Selbst die Einhaltung verschiedener gesetzlicher Normen wird nicht überwacht, weil bei Gesetzesverstößen nur der Verfasser (wenn er denn identifizierbar sein sollte) zur Rechenschaft gezogen werden kann - es gibt einfach niemand anderen, der etwas dazu getan hätte. Mal sehen ob und wie das funktioniert.

(37) Das gemeinsame Merkmal all dieser Projekte und Aktivitäten ist die freiwillige, nichtkommerzielle Zusammenarbeit hochqualifizierter und interessierter Individuen mit Hilfe des Internets. Im Vordergrund steht dabei die Befriedigung verschiedenster Bedürfnisse ohne den Umweg über das Geld zu nehmen. Dieses Verhalten ist mit dem heute dominierenden Modell des „homo oeconomicus" nicht wirklich zu erklären, wenn man sich nicht auf gewagte Konstrukte einlassen will.

(38) All diese Faktoren führen zusammen mit der technischen Entwicklung über kurz oder lang zu einer abnehmenden Zahl der an der kommerziellen Informationsproduktion und -verteilung mitwirkenden Menschen. Eine breite und wachsende Schicht Hochqualifizierter wird ihr Wissen also nicht über kommerzielle Wege verbreiten und dadurch verwerten können, sondern die oben beschriebenen nichtkommerziellen Lösungen wählen. Schon heute ist es gang und gäbe, dass Verfasser akademischer Schriften und Artikel nur symbolisch bezahlt werden, z.B. durch einige Exemplare des Sammelbandes, zu dem sie beigetragen haben, ihren Lebensunterhalt jedoch anderweitig verdienen müssen. Es ist anzunehmen, dass sich diese Tendenz in Zukunft auch auf weitere, oben nicht genannte Bereiche ausdehnen wird.

Schlussfolgerungen

(39) Auf den Punkt gebracht lassen sich also unter anderem folgende wahrscheinlichen Tendenzen auf dem Weg in die Wissensgesellschaft erkennen:

(40) - Der Nutzwert wissensrelevanter Information wird steigen, ihr Tauschwert (Geldwert) dagegen sinken.

(41) - Der Austausch und die Nutzung wissensrelevanter Information werden sich vereinfachen, zumindest auf der technischen Ebene. Inwieweit die soziale Entwicklung dem zuwider läuft, ist eine offene Frage.

(42) - Die Anzahl der Wissensträger, die ihr Wissen nicht für sie lohnend kommerziell verkaufen können, wird zunehmen. Sie werden in zunehmenden Maße ihr Wissen und dazugehörige Informationen unentgeltlich zur Verfügung stellen. Die Bedeutung der nichtkommerziellen Zusammenarbeit bei der Wissensproduktion und -verteilung wird steigen.

(43) - Der Anteil nichtkommerzieller wissensrelevanter Information wird steigen, kommerzielle Informationsanbieter werden sich stärker auf Bereiche spezialisieren, die auf nichtkommerzieller Basis nicht abgedeckt werden können.

(44) - Kommerzielle wissensrelevante Information wird vorrangig auf Gebieten Bestand haben, in denen ihre zeitkritische Nutzung einen ökonomischen Gewinn verspricht (z.B. Wirtschafts- Nachrichtenagenturen).

(45) Die Wissensgesellschaft ist insofern eine echte gesellschaftliche Weiterentwicklung, als sie über die heutigen Produktions- und Verkehrsformen hinausgeht. Sie steht zwar noch nicht vor der Tür, kündigt sich mittlerweile aber unübersehbar an, sofern ihre soziale Basis zumindest in den die Entwicklung vorantreibenden Regionen der Erde tragfähig bleibt.

(45.1) Neue Fassung, 23.10.2000, 14:34, Torsten Wöllert: Die Wissensgesellschaft ist insofern eine echte gesellschaftliche Weiterentwicklung, als sie über die heutigen Produktions- und Verkehrsformen hinausgeht. Sie wird in ihrer Tragweite und ihren gesellschaftlichen Auswirkungen am ehesten mit der Verbreitung des Buchdrucks vergleichbar sein, sich jedoch in historisch wesentlich kürzeren Zeiträumen durchsetzen. Sie steht zwar noch nicht vor der Tür, kündigt sich mittlerweile aber unübersehbar an, sofern ihre soziale Basis zumindest in den die Entwicklung vorantreibenden Regionen der Erde tragfähig bleibt.


Valid HTML 4.01 Transitional