Einzelnen Beitrag anzeigen
Ungelesen 19.09.10, 18:24   #30
Quiksilver
Anfänger
 
Registriert seit: Jun 2010
Beiträge: 9
Bedankt: 7
Quiksilver ist noch neu hier! | 0 Respekt Punkte
Standard

Deutscher Wortschatz [Bearbeiten]

Der Wortschatz der deutschen Standardsprache umfasst ca. 75.000 Wörter[1], die Gesamtgröße des deutschen Wortschatzes wird je nach Quelle und Zählweise auf 300.000 bis 500.000 Wörter bzw. Lexeme geschätzt. So gibt Duden. Deutsches Universalwörterbuch an, der Wortschatz der Alltagssprache werde auf etwa 500.000, der zentrale Wortschatz auf rund 70.000 Wörter geschätzt.[2] Das Deutsche Wörterbuch von Jacob und Wilhelm Grimm (1852-1960) wird auf ca. 350.000 Stichwörter geschätzt[3]; Wahrig (200 gibt im abgedruckten Vorwort zur Neuausgabe 2006 an, dieses einbändige Wörterbuch enthalte über 260.000 Stichwörter.[4] Solche Angaben geben Aufschluss darüber, als wie groß der deutsche Wortschatz mindestens geschätzt werden muss. Diese Wörterbücher enthalten jedoch nur geringe Anteile der vielen Fachwortschätze und sind auch insofern unvollständig, als Ableitungen und Komposita nur teilweise aufgenommen werden und die neuesten Neubildungen naturgemäß fehlen. Ein entscheidendes Kriterium für die Aufnahme von Wörtern ist ihre Verwendungshäufigkeit/ Gebräuchlichkeit; ausgeschlossen werden solche Wörter, die aus einfachen zusammengesetzt sind und sich bei Kenntnis ihrer Bestandteile von selbst verstehen lassen.[5] Damit ist klar, dass der Wortschatz insgesamt noch wesentlich größer sein muss; die Angabe von 500.000 Wörtern ist kaum übertrieben. Nimmt man Fachwortschatz hinzu, ist mit mehreren Millionen Wörtern zu rechnen. Allein die Fachsprache der Chemie enthält nach Winter (1986) rund 20 Millionen Benennungen.[6] Vor diesem Hintergrund erscheint Lewandowskis Bemerkung: „Der Gesamtwortbestand des Deutschen wird auf 5 bis 10 Millionen Wörter geschätzt.“[7] als noch zu tief gegriffen.
Zum Wortschatzumfang einzelner Personen und Texte [Bearbeiten]

Die Schätzungen zur Wortschatzkenntnis einzelner Personen gehen weit auseinander. Als handfeste Zahl kann man die Angaben zum aktiven, d.h. in seinen Werken nachweisbaren Wortschatz bei Goethe ansehen, der im 3. Band des Goethewörterbuchs auf ca. 90.000 Wörter beziffert wird.[8] Da nur wenige Menschen ein so reichhaltiges Werk geschaffen haben, dürfte diese Angabe zumindest in ihrer Dimension etwa die Obergrenze benennen. Allerdings ist dabei der passive Wortschatz noch nicht berücksichtigt: Goethe wird ja das eine oder andere Wort gekannt haben, das sich aber nicht in seinen Werken findet.

In etwa gilt: Je höher der Bildungsstand eines Menschen ist, desto größer ist sein Wortschatz. Ein größerer Wortschatz hilft beim differenzierteren Informationsaustausch. „Ein einfacher Bürger kommt im täglichen Leben mit wenigen tausend Wörtern aus. Der Wortschatz einer Person ist abhängig vom Interessensgebiet und Berufsfeld (Fachterminologie) sowie der Sozialisation dieser Person. Ein Gebildeter, beispielsweise ein Gelehrter oder Schriftsteller, kann mehrere zehntausend Wörter benutzen (aktiver Wortschatz) und sehr viel mehr verstehen, wenn sie ihm begegnen (passiver Wortschatz).“[9]. Der Wortschatz von 15Jährigen wurde in einschlägigen Untersuchungen bereits auf rund 12.000 Wörter beziffert.[10] Die Schätzungen für den Umfang des Wortschatzes eines erwachsenen Muttersprachlers reichen von 3.000 bis 216.000 Wörtern.[11] Die teilweise sehr markanten Unterschiede in den Schätzungen des Wortschatzumfanges erklären sich durch unterschiedliche, für diese Schätzungen angewandte Methoden. Somit ist die Bestimmung des Wortschatzumfanges vornehmlich ein methodologisches Problem. Prinzipiell stehen für die Schätzung zwei unterschiedliche Methoden zur Verfügung: eine qualitative und eine quantitative. Die qualitative Methode untersucht die Art der vorzufindenden Wörter, während die quantitative Methode das Type-Token-Verhältnis bestimmt, also misst, wie häufig unterschiedliche Wörter vorkommen.

Einige Daten zum Wortschatz einzelner Texte oder Textgruppen im Deutschen findet man bei Billmeier (1969: 35). Hier ist zu erfahren, dass man im Jahr 1964 über 4.000 Wörter (im Sinne von Lexem = Stichwörter im Wörterbuch) beherrschen musste, um auch nur einen Auszug der Zeitung Die Welt in den Monaten Januar und Februar lesen zu können, eine der in dieser Hinsicht anspruchsloseren Lektüren. Für E. Strittmatters Roman Ole Bienkopp ist schon die Kenntnis von über 18.000 Lexemen vonnöten.[12]

Ein methodologisches Problem entsteht, wenn Texte unterschiedlicher Länge auf ihren Wortschatzreichtum hin untersucht werden sollen (wobei als "Text" auch Wortschatztests interpretiert werden können, die entworfen wurden, um den Wortschatz eines Probanden zu messen). Für die Messung des Wortschatzreichtums ist der Index von Guiraud ein häufig verwendetes Maß. Der Index berechnet sich wie folgt:


Ziel des Index ist es, Aussagen über den Wortschatzreichtum unterschiedlich langer Texte zu ermöglichen. Nimmt man als "Text" etwa die Ergebnisse vorher durchgeführter C-Tests her, lässt sich der Index von Guiraud als Maß für den Wortschatzumfang von Individuen einsetzen. Wie der Index wirkt, lässt sich nachvollziehen, wenn man annimmt, die Zahl der Types sei mit der Zahl der Tokens identisch - d.h., in einem Text würde sich kein Wort wiederholen. Als Index von Guiraud ergibt sich dann:


Der zugehörige Graph entspricht einer liegenden Parabel. Für sehr hohe X-Werte, also bei langen Texten, nähert sich die Parabel einer Geraden. Daher ergibt sich für unterschiedlich lange Texte mit gleichem Type-Token-Verhältnis auch ein annähernd gleicher Wert für G. Bei kürzeren Texten ist mit Verzerrungen zu rechnen: hier resultieren unterschiedliche G-Werte auch aus einem konstanten Type-Token-Verhältnis. Diese unterschiedlichen Werte sind dann allerdings allein durch die Formel bedingt. Der G-Wert ist also bei kürzeren Texten nicht nur vom Wortschatzreichtum, sondern auch von der Textlänge abhängig.[13]
Wortschatz in anderen Sprachen [Bearbeiten]

Dazu führt Wolff (1969: 4 aus: „Neuere Schätzungen geben für den englischen Wortschatz eine Zahl von 500.000 bis 600.000 Wörtern an, der deutsche liegt knapp darunter, der französische bei etwa 300.000 Wörtern.“[14] Man darf daraus nicht schließen, das Französische sei eine wortarme Sprache. Der Unterschied ist in erheblichem Maße auf die unterschiedliche Art der Wortbildung zurückzuführen: Dem deutschen Wort „Kartoffelbrei“ (1 neues Wort) entspricht im Französischen „purée de pommes de terre“ (eine Wortgruppe, bestehend aus 5 Wörtern). In Wörterbüchern der estnischen Literatursprache werden im 20. Jahrhundert um 120.000 Wörter aufgeführt.[15]
Wortschatz und Wortformen [Bearbeiten]

Zum Vergleich: Der Rechtschreib-Duden enthält nach eigenen Angaben ca. 135.000 Stichwörter.[16] Durch Flexion kann in flektierenden Sprachen aus vielen dieser relativ wenigen Grundformen ein mehrfaches an Wortformen entstehen, im Deutschen zum Beispiel erheblich mehr als in dem die Flexion langsam verlierenden Englischen. Die Häufigkeitsverteilung von Wörtern lässt sich mit dem Zipfschen Gesetz beschreiben.
Wortschatzerweiterung und -verlust [Bearbeiten]

Der Wortschatz einer Sprache ist keine statische Größe; er ist vielmehr in ständiger Veränderung begriffen. Einerseits gehen Bezeichnungen für Gegenstände verloren, die allmählich außer Gebrauch geraten. So wird wohl der Ausdruck Rechenschieber mit der Zeit verschwinden, da die Leistung des so bezeichneten Geräts heute von Taschenrechner und Computer übernommen wird. Oft werden auch Gegenstände auf Kosten der alten Bezeichnung neu benannt, wie dies mit der Ersetzung von Elektronengehirn durch Computer geschehen ist.[17]. Andererseits müssen immer wieder neue Gegenstände benannt werden, was mit Hilfe der Wortbildung oder der Übernahme von Fremdwörtern bewältigt wird. Diese Prozesse des Verlusts oder der Zunahme von Wörtern unterliegen einem Sprachgesetz, dem Piotrowski-Gesetz.[18]
Erwerb des muttersprachlichen Wortschatzes [Bearbeiten]

Wir Menschen lernen unsere Muttersprache zunächst durch Imitation; wir ahmen die Ausdrucksweise und die Aussprache unseres sozialen Milieus nach. Das ist nicht nur in den Kinderjahren, sondern auch noch im Erwachsenenalter der Fall. Das heißt, dass sich sowohl unser Wortschatz als auch unsere Aussprache, unser Dialekt, falls wir einen besitzen, unserem sozialen Milieu anpasst.

Allerdings kann Imitation nicht allein verantwortlich sein für den Spracherwerb, da gerade Kinder regelmäßig mit etwa drei Jahren eine Phase der Übergeneralisierung durchlaufen, in der sie nie gehörte Verbformen wie „gingte“, „gangte“, „is gegeht“ usw. bilden, also Analogien bilden.[19]

Die Spracherwerbs-Prozesse laufen, soweit das bisher zu überblicken ist, gesetzmäßig ab und folgen offenkundig dem Spracherwerbsgesetz, wie mehrfach gezeigt werden konnte.[20]
Grundwortschatz [Bearbeiten]

Von besonderer Bedeutung für die Planung des Unterrichts in der Muttersprache ebenso wie für das Fremdsprachenlernen ist der sogenannte Grundwortschatz; das ist derjenige Wortschatz, der nötig ist, um ca. 85% von Texten einer Sprache zu verstehen.

Die Google-Suchmaschine folgt mithilfe so genannter Webcrawler den gefundenen Links und versucht so, möglichst viele publizierte Seiten in ihren Suchindex aufzunehmen. (Zum Umfang dieser Datenbank siehe Indexgröße). Dabei werden die Seiten nach Suchbegriffen und Schlüsselworten aufgegliedert.
Sortierung der Suchergebnisse

Google zielt darauf ab, den Nutzern die Suchergebnisse nach Relevanz zu sortieren. Der Algorithmus wird von Google als Betriebsgeheimnis gehandhabt, stützt sich aber zur Sortierung der Suchergebnisse vor allem auf ein patentiertes Verfahren, das den so genannten PageRank-Wert errechnet. Er basiert auf einer Messung, wie gut ein Dokument verlinkt ist und von wem, was sich als brauchbare Annäherung an soziale Relevanzkriterien erwiesen hat.

Ermittelt wird der PageRank eines Dokuments rekursiv anhand von Verweisen auf dieses Dokument. Für jede Seite wird eine Punktzahl errechnet, die aus der Summe der gewichteten Punktzahlen aller Seiten bestehen, die auf die entsprechende Seite verlinken. Je häufiger eine Seite verlinkt ist und je höher die Punktzahl der verlinkenden Seiten ist, desto höher der PageRank der Seite. Der jeweilige Wert des PageRanks einer Seite lässt sich anhand des Browser-Plugins Google Toolbar ermitteln. Allerdings ist der in der Toolbar angezeigte Wert meist einige Monate alt und steht in einem logarithmischen Verhältnis zum tatsächlichen Wert. Jedoch gibt es auch Onlinedienste, die zu einer bestimmten Domain einen aktuellen PageRank ermitteln können.

Neben dem PageRank werden weitere Faktoren in die Sortierung einbezogen, so wird etwa das Auftreten der Suchbegriffe im Dokumententitel oder in Überschriften gewertet. Des Weiteren spielt die Verwendung der Begriffe als Ankertext in verweisenden Dokumenten eine große Rolle. Letzteres wird bei Google-Bomben missbraucht.

Die exakte Funktionsweise der Seitensortierung ist Googles Betriebsgeheimnis, nicht zuletzt, um Manipulationen durch Website-Betreiber zu erschweren, die die eigene Site für gewisse Begriffe auf den Ergebnisseiten möglichst weit nach oben bringen möchten. Die Suchmaschinenoptimierung beschäftigt sich mit Methoden, dies zu erreichen.
Einschränkungen aufgrund Datenschutz

Das politische Umfeld erlaubt teils nicht, dass alle Suchergebnisse angezeigt werden. Beispielsweise in der Schweiz können selbst private Personen eine Löschung eines Links fordern, sofern ein Link im Zusammenhang mit der eigenen Person im Suchergebnis von Google erscheint. Diesbezüglich muss sich Google Inc. an das Bundesgesetz über den Datenschutz halten.
Technik
Hardware-Architektur

Google Inc. betreibt weltweit eine Reihe von Rechenzentren, die jeweils die komplette Funktionalität der Suchmaschine enthalten. Eine Benutzeranfrage wird, durch das Domain Name System (welches Namen wie google.com in IP-Adressen übersetzt) gesteuert, im Idealfall an das netztopologisch nächste Rechenzentrum – nur manchmal mit dem geographisch nächstgelegenen identisch – geleitet und von diesem beantwortet. Fällt ein Rechenzentrum komplett aus, können die verbleibenden Rechenzentren die Last übernehmen.

Jedes Rechenzentrum besteht aus einem Computercluster. Die verwendeten Rechner sind IBM-kompatible Personal Computer, bestehen also aus preiswerten Standardkomponenten. Hier kommt das selbstentwickelte Google File System zum Einsatz, eine verteilte Architektur, bei der alle Daten mehrfach redundant auf verschiedenen Geräten gespeichert sind. Ist einer der Rechner oder nur eine Festplatte eines Rechners ausgefallen, werden die entsprechenden Daten von einer anderen Stelle im Cluster auf einen Ersatzrechner umkopiert und die ausgefallene Hardware-Komponente kann im laufenden Betrieb ausgetauscht werden, ohne dass Ausfälle entstehen. Das Gesamtsystem ist auch leicht skalierbar, da nach Bedarf immer weitere Rechner und Festplatten hinzugefügt werden können.

Durch Ablage der einzelnen Datenstrukturen (Indizes, Dokumentenkopien, Verzeichnisse aller Art) auf verschiedenen Rechnern und die große Anzahl verfügbarer Einzelrechner lassen sich Anfragen sehr schnell beantworten, da durch die Parallelisierung der zu erledigenden Arbeit nur ein Bruchteil der Zeit benötigt wird, die ein einzelner Rechner benötigen würde – in der Tat beschäftigen sich bis zu 1000 Einzelrechner mit jeder Suchanfrage. Eine Antwortzeit von höchstens einer halben Sekunde wird als Richtwert angestrebt. Die schnelle Lieferung von Ergebnissen hatte auch frühzeitig zur Popularität von Google beigetragen. Die Konkurrenz ließ sich mit der Anfragebeantwortung oft mehr Zeit. Insbesondere bei inkrementellen Anfragen, also immer weiter verfeinerten Anfragen des Benutzers, der das jeweils vorige Suchergebnis berücksichtigt, ist die Zeitersparnis insgesamt deutlich spürbar.[10]
Software

Als Betriebssystem wird eine funktionsreduzierte Variante der Linux-Distribution Red Hat verwendet.[11] Die Programmiersprachen C, C++ und Python spielen essentielle Rollen bei der Implementierung der proprietären Suchmaschinensoftware.
MapReduce

Der zentrale Aspekt aller verteilten Google-Anwendungen, allen voran die Indizierung des Internets und die Suche darin, ist der von Google entwickelte Algorithmus MapReduce für die automatisierte Parallelisierung von Arbeitsaufträgen in Clustern.[12] Der Entwickler muss bei diesem speziellen Programmierstil nur zwei Hooks implementieren, die, in Anlehnung an entsprechend benannte und ähnlich arbeitende Funktionen der LISP-Sprachfamilie, map und reduce genannt werden.

Die Map-Funktion erzeugt dabei in allen entsprechend entworfenen Anwendungen aus dem gesamten Input (zum Beispiel der Gesamtheit aller betrachteten Webseiten) eine Liste von Zwischenresultaten in Form von Wertepaaren, die einen Schlüssel mit einem symbolischen Wert kombinieren. Zum Beispiel wird so für jedes Vorkommen von „Wert“ in einem Text ein Paar ('Wert','1') erzeugt – jedes mal, wenn die Funktion auf das Wort trifft. Die Menge der Zwischenresultate wird dann durch die Reduce-Funktion derart reduziert, dass mit jedem Schlüssel nur noch ein symbolischer Wert assoziiert ist, der sich aus der Menge aller symbolischen Werte für diesen Schlüssel in den Zwischenergebnissen ergibt. Eine typische Aufgabe wäre, unter Rückgriff auf das Beispiel weiter oben, alle (beispielsweise 43) Paare ('Wert','1') je Schlüssel zu einem einzigen Paar pro Schlüssel zu kombinieren – etwa ('Wert','43').[13]

Die Leistung von MapReduce ist nun, dass alle anderen Aufgaben, die mit der Parallelisierung dieser Aufgaben zusammenhängen (und sich prinzipiell für alle solch parallelisierten Anwendungen wiederholen), vom Framework übernommen werden. Es kümmert sich um die Verteilung der Funktionalitäten, der Daten und Zwischenergebnisse und um das Einsammeln der Ergebnisse und beinhaltet zudem Maßnahmen zur Fehlerbehandlung (via redundanter oder wiederholter Ausführung)[14][15] – etwa wenn ein einzelner Arbeiter-Rechner ausfällt oder so schlechte Leistungen zeigt, dass er die Fertigstellung des Gesamtergebnisses übermäßig verzögert.

Google selbst setzt den Algorithmus in steigendem Maße für seine eigene Arbeit ein – nach Einführung von MapReduce im Jahre 2003 hatte sich die Anzahl der Produktionsanwendungen in der Code-Bibliothek von Google binnen zwei Jahren auf fast 1000 Anwendungen exponentiell vervielfacht.[16] In der zentralen Anwendung, dem Aufbau des Dokumenten-Indexes für die Suchmaschine selbst, sind 24 Instanzen von MapReduce hintereinander geschaltet.[17]
Trendalyzer

Im März 2007 wurde von Google die von dem Schweden Hans Rosling entwickelte Software Trendalyzer (früher Gapminder genannt) durch Übernahme des gleichnamigen Unternehmens erworben. Mit Trendalyzer ist es möglich, statistische Werte zu visualisieren. Außerdem sollen große Datenmengen über ein spezielles Interface besser zugänglich gemacht werden können. Einige Komponenten der Software wurden für die allgemeine Benutzung durch die Visualisierungsschnittstelle zur Anwendungsprogrammierung (Google Visualization API) verfügbar. [18]
Indexgröße

Die ungefähre Anzahl der Dokumente im Index der Websuche wurde die ersten sieben Jahre unten auf der Hauptseite eingeblendet.

* Unternehmensgründung Januar 1998: 25.000.000[19]
* August 2000: 1.060.000.000
* Januar 2002: 2.073.000.000
* Februar 2003: 3.083.000.000
* September 2004: 4.285.000.000
* November 2004: 8.058.044.651
* Juli 2008 : 1.000.000.000.000[20]

Außerdem existierte im Juni 2005 nach eigener Aussage ein Index von 1.187.630.000 Bildern, einer Milliarde Usenet-Artikeln, 6.600 Katalogen und 4.500 Nachrichtenquellen.

Seit dem siebten Geburtstag des Unternehmens Google im September 2005 wird die Größe des Index nicht mehr auf der Hauptseite angezeigt, da laut Eric Schmidt keine eindeutige Zählweise existiert.[21] Im Juli 2008 ermittelte Google nach eigenen Angaben[20] das Vorhandensein von mehr als einer Billion URLs im World Wide Web.
Suchdienstleistungen für Portale

Googles Suchtechnik wird auch an Internetportale lizenziert, um dort eine Websuche anbieten zu können, ohne dass Benutzer das Portal verlassen müssten.
Google Appliance

Mit der Google Appliance verkauft Google seine Suchtechnologie an Unternehmen, die sie im eigenen Intranet einsetzen möchten. Bei der Appliance handelt es sich um einen Server mit vorinstallierter Software, der im unternehmenseigenen Netz dieselbe Aufgabe übernimmt, die Google für das World Wide Web leistet. Dokumente werden im Index vorgehalten und Suchanfragen beantwortet.
Gebrauch der Suchmaschine

Weitere Funktionen:

Taschenrechner
Bei Eingabe einfacher mathematischer Schreibweisen wie z. B. „2+5(4/5)^8“ gibt Google standardmäßig keine Seiten aus, in denen diese Formulierung vorkommt, sondern gibt das Ergebnis der Rechnung (= 2.838860 zurück.
Einheitenrechner
Man kann auch Einheiten Umrechnen lassen: z. B. „inch in cm“, „usd in euro“, oder auch komplizierter „l/100km in miles/gallon“
Rechtschreibprüfung
Google liefert bei falsch geschriebenen Wörtern einen Vorschlag zur richtigen Schreibweise („Meinten Sie …“). Die Empfehlung beruht auf einem phonetischen, vollautomatisierten Vergleich, was teilweise zu abwegigen Vorschlägen führen kann.

Adressen-Suche
Wer eine Adresse bei der Google Suche eingibt, bekommt diese sofort auf der Karte gezeigt.
Übersetzer
Beim Eingeben von „Translate“ und einem beliebigen Wort übersetzt Google dieses automatisch.

Folgende Funktionen stehen nicht in allen landesspezifischen Versionen von Google zur Verfügung. Unter anderem können sie in den Google-Mutationen Deutschlands, Österreichs und der Schweiz verwendet werden:

Zugauskunft
Gibt man zwei Orte in die Suchleiste ein, schlägt Google einen aktuellen Fahrplan vor, der die nächsten Zugverbindungen zwischen den Orten anzeigt.
Kinopläne
Durch die Eingabe „Kino“ und dem entsprechenden Ort erhält man aktuelle Kinopläne aller ortsansässigen Kinos. Es werden dabei Angaben zu Film, Uhrzeiten, FSK und Genre gemacht.
Wetter
Ebenso lässt sich auch eine kurze Übersicht zu den Wetterverhältnissen anzeigen. Durch Eingabe von „Wetter“ und dem Namen der Stadt erscheint der Wetterbericht für die kommenden drei Tage.

Erweiterte Benutzung

Es kann zusätzlich zu dieser einfachen Such-Syntax eine erweiterte Syntax in die Suchmaske eingegeben, bzw. größtenteils auch über die „erweiterte Suche“ zusammengeklickt werden. Folgende, teils undokumentierte Schlüsselbegriffe sind derzeit bekannt. Diese Schlüsselbegriffe werden durch einen Doppelpunkt „:“ gekennzeichnet.

Das Internet (von engl.: interconnected Networks: „untereinander verbundene Netzwerke“) ist ein weltweites Netzwerk bestehend aus vielen Rechnernetzwerken, durch das Daten ausgetauscht werden. Es ermöglicht die Nutzung von Internetdiensten wie E-Mail, Telnet, Usenet, Dateiübertragung, WWW und in letzter Zeit zunehmend auch Telefonie, Radio und Fernsehen. Im Prinzip kann dabei jeder Rechner weltweit mit jedem anderen Rechner verbunden werden. Der Datenaustausch zwischen den einzelnen Internet-Rechnern erfolgt über die technisch normierten Internetprotokolle. Die Technik des Internet wird durch die RFCs der Internet Engineering Task Force (IETF) beschrieben. Umgangssprachlich wird „Internet“ häufig synonym zum World Wide Web verwendet, da dieses einer der meistgenutzten Internetdienste ist, und im wesentlichen zum Wachstum und der Popularität des Mediums beigetragen hat. Im Gegensatz dazu sind andere Mediendienste, wie Telefonie, Fernsehen und Radio erst kürzlichüber das Internet erreichbar und haben parallel dazu noch ihre ursprüngliche Verbreitungstechnik. [1]
Inhaltsverzeichnis
[Verbergen]



Geschichte

→ Hauptartikel: Geschichte des Internets und Chronologie des Internets

Das Internet ging aus dem im Jahr 1969 entstandenen ARPANET hervor, einem Projekt der Advanced Research Project Agency (ARPA) des US-Verteidigungsministeriums. Es wurde zur Vernetzung von Universitäten und Forschungseinrichtungen benutzt. Ziel des Projekts war zunächst, die knappen Rechenkapazitäten sinnvoll zu nutzen, erst in den USA, später weltweit. Die anfängliche Verbreitung des Internets ist eng mit der Entwicklung des Betriebssystems Unix verbunden. Nachdem das Arpanet im Jahr 1982 TCP/IP adaptierte, begann sich auch der Name Internet durchzusetzen.

Nach einer weit verbreiteten Legende bestand das ursprüngliche Ziel des Projektes vor dem Hintergrund des Kalten Krieges in der Schaffung eines verteilten Kommunikationssystems, um im Falle eines Atomkrieges eine störungsfreie Kommunikation zu ermöglichen.[2][3] In Wirklichkeit wurden vorwiegend zivile Projekte gefördert, auch wenn die ersten Knoten von der ARPA finanziert wurden.

Die wichtigste Applikation in den Anfängen war die E-Mail. Bereits im Jahr 1971 überstieg das Gesamtvolumen des E-Mail-Verkehrs das Datenvolumen, das über die anderen Protokolle des Arpanet, das über Telnet und FTP abgewickelt wurde.

Rasanten Auftrieb erhielt das Internet seit dem Jahr 1993 durch das World Wide Web, kurz WWW, als der erste grafikfähige Webbrowser namens Mosaic veröffentlicht und zum kostenlosen Download angeboten wurde. Das WWW wurde im Jahr 1989 im CERN (bei Genf) von Tim Berners-Lee entwickelt. Schließlich konnten auch Laien auf das Netz zugreifen, was mit der wachsenden Zahl von Nutzern zu vielen kommerziellen Angeboten im Netz führte. Der Webbrowser wird deswegen auch als die „Killerapplikation“ des Internet bezeichnet. Das Internet ist ein wesentlicher Katalysator der Digitalen Revolution.

Im Jahr 1990 beschloss die US-amerikanische National Science Foundation, das Internet für kommerzielle Zwecke zu nutzen, wodurch es über die Universitäten hinaus öffentlich zugänglich wurde.

Neue Techniken verändern das Internet und ziehen neue Benutzerkreise an: IP-Telefonie, Groupware wie Wikis, Blogs, Breitbandzugänge (zum Beispiel für Vlogs und Video-on-Demand), Peer-to-Peer-Vernetzung (vor allem für File Sharing) und Online-Spiele (z. B. Rollenspiele, Taktikshooter, …).

Das rasante Wachstum des Internets sowie Unzulänglichkeiten[4] für immer anspruchsvollere Anwendungen bringen es jedoch möglicherweise in Zukunft an seine Grenzen[5], so dass inzwischen Forschungsinitiativen begonnen haben, das Internet der Zukunft zu entwickeln.
Gesellschaftliche Aspekte
Ein kleiner Ausschnitt des World Wide Web, dargestellt durch Hyperlinks.

Das Internet gilt bei vielen Experten als eine der größten Veränderungen des Informationswesens seit der Erfindung des Buchdruckes mit großen Auswirkungen auf diverse Bereiche des alltäglichen Lebens.

Schon Anfang der 1980er Jahre waren Mailbox-Netze entstanden, basierend auf Datenfernübertragung über das Telefonnetz oder auf Netzen wie Datex-P. Diese Technik blieb aber Experten vorbehalten, wie auch der Zugang zu weltweiten TCP/IP-Netzen lange Zeit nur über Universitäten möglich war. Erst mit kommerziellen Verbreitung der Internet E-Mail Anfang der 1990er und durchgreifend dann mit dem World Wide Web etablierte sich das Internet seit Mitte der 1990er Jahre zunehmend als Standard für die Verbreitung von Informationen jeder Art.

Waren dies in der Anfangszeit vor allem Kommunikation per E-Mail und der Selbstdarstellung von Personen und Firmen, folgte im Zuge der New Economy zum Ende des letzten Jahrtausends der Online-Handel. Mit steigenden Bandbreiten und sinkenden Preisen und nicht zuletzt durch die Verfügbarkeit von DSL-Flatrates dient es auch der Verbreitung größerer Datenmengen. Hiermit verbunden sind vor allem massenhafte Urheberrechtsverletzungen, deren Bekämpfung heute einen Großteil der Internet-Gesetzgebung ausmachen.

Eine zunehmende Bedeutung erhält auch der Online-Journalismus, der heute zu einem großen Konkurrenten der klassischen Medienlandschaft geworden ist. Aktuell sehen Beobachter zudem einen Wandel des Nutzers vom „surfenden“ (passiven) Medienkonsumenten zum aktiven Web 2.0-Autor, der sich zu vielerlei Themen in Online-Communitys mit Gleichgesinnten vernetzt, die die klassische, bisher eher techniklastige Netzkultur ergänzt. Örtlich bedingte Grenzen sind im Internet völlig aufgehoben und werden durch themenbezogene Gruppen ersetzt. Durch die Vielzahl der Informationsquellen stellt der sinnvolle Umgang mit dem Internet größere Anforderungen an die Medienkompetenz der Benutzer als klassische Medien.

Das Internet wird häufig in politischen Kontexten als rechtsfreier Raum bezeichnet, da nationale Gesetze durch die internationale Struktur des Netzes und durch Anonymität als schwer durchsetzbar angesehen werden.

Bei Anwendungen wie E-Mail zeigt sich, dass die Technik auf das Phänomen des Spam überhaupt nicht vorbereitet ist.

Dienste wie MySpace sollen den Aufbau Sozialer Netzwerke ermöglichen; Funktionen wie Instant Messaging erlauben auch online beinahe spontane Kommunikation.

Mit der steigenden Verbreitung des Internets wird in den Medien der Begriff Internetsucht immer wieder thematisiert, der wissenschaftlich jedoch umstritten ist. Ob und wann die extensive Nutzung des Internets einen „schädlichen Gebrauch“ oder Missbrauch darstellt und zur Abhängigkeit führt, wird in verschiedenen Studien aktuell untersucht.

Staatliche Stellen hatten lange Zeit von der Funktion des Internet wenig Kenntnisse und wenig Erfahrung mit der Anwendung der Gesetze. Bis zur New Economy-Entwicklung ab dem Jahr 1998 war zudem die Bedeutung des Internet seitens der Politik unterschätzt worden. Dies änderte sich erst danach, Gesetze wurden angepasst und die Rechtsprechung hat eine Reihe von Unsicherheiten zumindest de jure beseitigt. Der zunehmende Einfluss des Staates wird dabei teils als Steigerung der Rechtssicherheit begrüßt, teils als Fortschreiten in Richtung auf einen Überwachungsstaat kritisiert, etwa durch den im April 2007 vom deutschen Bundeskabinett beschlossenen Gesetzesentwurf zur Vorratsdatenspeicherung. Auch international wird die Kontrolle des Internet durch den Staat aufmerksam beobachtet, etwa beim Internet in der Volksrepublik China.
Technik
Infrastruktur

Das Internet besteht aus Netzwerken unterschiedlicher administrativer Verwaltung, welche zusammengeschaltet werden. Darunter sind hauptsächlich:

* Providernetzwerke, an die die Rechner der Kunden eines Internetproviders angeschlossen sind,
* Firmennetzwerke (Intranets), über welche die Computer einer Firma verbunden sind, sowie
* Universitäts- und Forschungsnetzwerke.

Typische Verbindung zum Internet bei Heimanwendern
Typische Verbindung zum Internet bei Firmen

Physikalisch besteht das Internet im Kernbereich (in den Backbone-Netzwerken) sowohl kontinental als auch interkontinental hauptsächlich aus Glasfaserkabeln, die durch Router zu einem Netz verbunden sind. Glasfaserkabel bieten eine enorme Übertragungskapazität und wurden vor einigen Jahren zahlreich sowohl als Land- als auch als Seekabel in Erwartung sehr großen Datenverkehr-Wachstums verlegt. Da sich die physikalisch mögliche Übertragungsrate pro Faserpaar mit fortschrittlicher Lichteinspeisetechnik (DWDM) aber immens vergrößerte, besitzt das Internet hier zur Zeit teilweise Überkapazitäten. Schätzungen zufolge wurden im Jahr 2005 nur etwa 3 % der zwischen europäischen oder US-amerikanischen Städten verlegten Glasfasern benutzt[6]. Auch Satelliten und Richtfunkstrecken sind in die globale Internet-Struktur eingebunden, haben jedoch einen geringen Anteil.

Auf der sogenannten letzten Meile, also bei den Hausanschlüssen, werden die Daten oft auf Kupferleitungen von Telefon- oder Fernsehanschlüssen und vermehrt auch über Funk, mittels WLAN oder UMTS, übertragen. Glasfasern bis zum Haus (FTTH) sind in Deutschland noch nicht sehr weit verbreitet. Privatpersonen greifen auf das Internet entweder über einen Schmalbandanschluss, zum Beispiel per Modem oder ISDN (siehe auch Internet by Call), oder über einen Breitbandzugang, zum Beispiel mit DSL, Kabelmodem oder UMTS, eines Internetproviders zu. Firmen oder staatliche Einrichtungen sind häufig per Standleitung auf Kupfer- oder Glasfaserbasis mit dem Internet verbunden, wobei Techniken wie Kanalbündelung, ATM, SDH oder - immer häufiger - Ethernet in allen Geschwindigkeitsvarianten zum Einsatz kommen.

In privaten Haushalten werden oft Computer zum Abrufen von Diensten ans Internet angeschlossen, die selbst wenige oder keine solche Dienste für andere Teilnehmer bereitstellen und welche nicht dauerhaft erreichbar sind. Solche Rechner werden als Client-Rechner bezeichnet. Server dagegen sind Rechner, welche in erster Linie Internetdienste bereitstellen. Sie stehen meistens in sogenannten Rechenzentren, sind dort schnell angebunden und die Räumlichkeiten sind gegen Strom- und Netzwerkausfall sowie Einbruch und Brand gesichert. Peer-to-Peer-Anwendungen versetzen auch obige Client-Rechner in die Lage zeitweilig selbst Dienste anzubieten, die sie bei anderen Rechnern dieses Verbunds abrufen und so wird hier die strenge Unterscheidung des Client-Server-Modells aufgelöst.

An Internet-Knoten werden viele verschiedene Backbone-Netzwerke über leistungsstarke Verbindungen und Geräte (Router und Switches) miteinander verbunden. Darauf wird der Austausch von Erreichbarkeitsinformationen zwischen jeweils zwei Netzen vertraglich und technisch als Peering, also auf der Basis von Gegenseitigkeit organisiert und somit der Datenaustausch ermöglicht. Am DE-CIX in Frankfurt am Main, dem größten deutschen Austauschpunkt dieser Art, sind beispielsweise mehr als hundert Netzwerke zusammengeschaltet. Eine solche Übergabe von Datenverkehr zwischen getrennten administrativen Bereichen, sogenannten autonomen Systemen, kann auch an jedem anderen Ort geschaltet werden, es ist meist jedoch wirtschaftlich sinnvoller, dies gebündelt an Internet-Knoten vorzunehmen. Da in der Regel ein autonomes System, wie z. B. ein Internetprovider, nicht alle anderen auf diese Art erreichen kann, benötigt es selbst mindestens einen Provider, der den verbleibenden Datenverkehr gegen Bezahlung zustellt. Dieser Vorgang ist technisch dem Peering ähnlich, nur stellt der sog. Upstream- oder Transitprovider dem Kunden alle im Internet verfügbaren Erreichbarkeitsinformationen zur Verfügung, auch diejenigen, bei denen er selbst für die Zustellung des zu ihnen führenden Datenverkehrs bezahlen muss. Es gibt derzeit neun sehr große, sogenannte Tier-1-Provider, die ihren gesamten Datenverkehr auf Gegenseitigkeit abwickeln oder an ihre Kunden zustellen können, ohne einen Upstreamprovider zu benötigen.

Da das Arpanet als dezentrales Netzwerk möglichst ausfallsicher sein sollte, wurde schon bei der Planung beachtet, dass es keinen Zentralrechner sowie keinen Ort geben sollte, an dem alle Verbindungen zusammenlaufen. Diese Dezentralität wurde jedoch auf der administrativen Ebene des Internets nicht eingehalten. Die Internet Corporation for Assigned Names and Numbers (ICANN), ist die hierarchisch höchste Organisation zuständig für die Vergabe von IP-Adressen, die Koordination des Domain Name Systems (DNS) und der dafür nötigen Root-Nameserver-Infrastruktur, sowie die Festlegung anderer Parameter der Internetprotokollfamilie, welche weltweite Eindeutigkeit verlangen. Sie untersteht wenigstens indirekt dem Einfluss des US-Wirtschaftsministeriums. Um diesen Einfluss zumindest auf das DNS einzugrenzen, wurde das in erster Linie europäische Open Root Server Network aufgebaut, das jedoch mit dem Jahresende 2008 aus nachlassendem Interesse wieder abgeschaltet wurde.[7][8]

Die netzartige Struktur sowie die Heterogenität des Internets tragen zu einer hohen Ausfallsicherheit bei. Für die Kommunikation zwischen zwei Nutzern existieren meistens mehrere mögliche Wege über Router mit verschiedenen Betriebssystemen und erst bei der tatsächlichen Datenübertragung wird entschieden, welcher benutzt wird. Dabei können zwei hintereinander versandte Datenpakete, beziehungsweise eine Anfrage und die Antwort, je nach Auslastung und Verfügbarkeit verschiedene Pfade durchlaufen. Deshalb hat der Ausfall einer physikalischen Verbindung im Kernbereich des Internets meistens keine schwerwiegenden Auswirkungen, ein Ausfall der einzigen Verbindung auf der letzten Meile lässt sich jedoch nicht ausgleichen. Im Bereich der Katastrophenforschung werden flächendeckende Missbräuche oder Ausfälle des Internets, sog. D-Gefahren, sehr ernst genommen.
Internetprotokoll und Domain Name System

→ Hauptartikel: Internet Protocol und Domain Name System

Das Internet basiert auf der Internetprotokollfamilie, welche die Adressierung und den Datenaustausch zwischen verschiedenen Computern und Netzwerken in Form von offenen Standards regelt. Das Protokoll in welchem die weltweit eindeutige Adressierung von angebundenen Rechnern festgelegt und benutzt wird heißt Internetprotokoll (IP). Die Kommunikation damit geschieht nicht verbindungsorientiert, wie ein Telefonat, sondern paketorientiert. Das heißt, dass die zu übertragenden Daten in IP-Paketen einer Größe von bis zu ca. 65.000 Byte, meist aber nur 1500 Byte, übermittelt werden, welche jeweils IP-Adressen als Absende- und Zielinformation beinhalten. Der Empfänger setzt die Daten aus den Paketinhalten, auch Nutzdaten genannt, in festgelegter Reihenfolge wieder zusammen.

Die Netzwerkprotokolle sind je nach Aufgabe verschiedenen Schichten zugeordnet, wobei Protokolle höherer Schicht samt Nutzdaten in den Nutzdaten niederer Schichten transportiert werden. Die Standards und Protokolle des Internets werden in RFCs beschrieben und festgelegt. Ein großer Vorteil des Internetprotokolls ist, dass die Paketübertragung unabhängig von der Wahl der verwendeten Betriebssysteme und unabhängig von den Netzwerktechniken der Protokollschichten unterhalb von IP geschehen kann, so wie ein 40-Fuß-ISO-Container im Güterverkehr nacheinander per Schiff, Bahn oder Lastwagen transportiert werden kann, um an sein Ziel zu gelangen.

Um einen bestimmten Computer ansprechen zu können, identifiziert ihn das Internetprotokoll mit einer eindeutigen IP-Adresse. Dabei handelt es sich bei der heute üblichen Version IPv4 um 4 Byte (32 Bit), die als 4 Dezimalzahlen im Bereich von 0 bis 255 durch einen Punkt getrennt angegeben werden, beispielsweise 66.230.200.100. Bei der neuen Version IPv6 sind dies 16 Byte (128 Bit), die als 8 durch Doppelpunkt getrennte Blöcke aus je 4 hexadezimalen Ziffern angegeben werden, z. B. 2001:0db8:85a3:08d3:1319:8a2e:0370:7344. Man kann sich diese Adressen wie Telefonnummern für Computer mit dem Domain Name System (DNS) als automatischem Telefonbuch vorstellen.

Das DNS ist ein wichtiger Teil der Internet-Infrastruktur. Es ist eine über viele administrative Bereiche verteilte, hierarchisch strukturierte Datenbank, die einen Übersetzungsmechanismus zur Verfügung stellt: Ein für Menschen gut merkbarer Domänenname (zum Beispiel „wikipedia.de“) kann in eine IP-Adresse übersetzt werden und umgekehrt. Dies geschieht – vom Nutzer unbemerkt – immer dann, wenn er etwa im Webbrowser auf einen neuen Link klickt oder direkt eine Webadresse eingibt. Der Browser fragt dann zuerst mittels IP-Paket einen ihm bekannten DNS-Server nach der IP-Adresse des fremden Namens und tauscht dann IP-Pakete mit dieser Adresse aus, um die Inhalte der dort angebotenen Dienste wie beispielsweise Webseiten abzurufen. Zum Ermitteln der IP-Adresse befragt oft der DNS-Server selbst der Hierarchie folgend andere DNS-Server. Die Wurzel der Hierarchie, welche in den Namen durch die Punkte erkennbar wird, bilden die Root-Nameserver. So wird also das Erreichen der erwähnten Dienste mit IP-Paketen ermöglicht, durch die den Anwendern erst ein Nutzen aus dem Internet entsteht. Auch das DNS selbst ist genau genommen schon ein solcher, wenn auch sehr grundlegender Dienst, ohne den die Nutzer zum Verbinden mit anderen Rechnern IP-Adressen statt Namen angeben müssten.

Im Kernbereich des Internets müssen die IP-Pakete durch ein weit verzweigtes Netz. Die Verzweigungsstellen sind Router, welche über den kürzesten Weg zur Ziel-IP-Adresse des Paketes entscheiden. Sie verwenden dazu Routingtabellen, die über Routingprotokolle automatisch erstellt und aktuell gehalten werden, so wird automatisch auf ausgefallene Verbindungen reagiert. In Routingtabellen werden mehrere mögliche Ziel-IP-Adressen mit Hilfe von Netzmasken, bei IPv6 spricht man von Präfixlängen, zu Zielnetzen zusammengefasst und diesen wird jeweils ein Ausgang des Routers, zum Beispiel in Form der Sprungadresse zum nächsten Router (Next Hop IP Address), zum Weiterleiten zugeordnet. Zwischen autonomen Systemen geschieht der Austausch dieser Erreichbarkeitsinformationen heute ausschließlich über das Border Gateway Protocol, innerhalb eines autonomen Systems stehen viele andere Routingprotokolle zu Verfügung. Für Computer und Router, die nicht im Kernbereich des Internets stehen, reicht eine statische, nicht durch Routingprotokolle erzeugte, Routingtabelle aus. Diese enthält dann eine Default-Route, oft auch Standard- oder Default-Gateway genannt, welche für alle Zielnetze, die nicht anders eingetragen sind, in Richtung des Kernbereichs des Internets weist, ähnlich dem französischen Wegweiser „Toutes Directions“ (Alle Richtungen) im Straßenverkehr. Die Router im Kernbereich verwalten zurzeit Routingtabellen mit bis zu 300000 Zielnetzen für IPv4 und 2500 für IPv6.[9]

In den Nutzdaten des Internetprotokolls werden abhängig vom verwendeten Dienst immer noch Protokolle höherer Schichten (z. B. TCP oder UDP) übertragen, so wie ein ISO-Container im Güterverkehr z. B. Postpakete beinhalten kann, in denen wiederum Güter eingepackt sind. Die meisten Webseiten benutzen, aufbauend auf TCP, das Hypertext Transfer Protocol (HTTP), bzw. das Hypertext Transfer Protocol Secure (HTTPS) für verschlüsselte Seiten. E-Mails benutzen das Simple Mail Transfer Protocol (SMTP), ebenfalls aufbauend auf TCP, das DNS wird dagegen weitgehend mittels UDP abgewickelt.

Bei IPv4 erhalten oft viele Arbeitsplatzrechner in dem Netzwerk einer Firma oder Organisation private IP-Adressen, die bei nach außen gerichteter Kommunikation per Network Address Translation (NAT) auf wenige öffentliche, global eindeutige, IP-Adressen übersetzt werden. Auf diese Rechner kann aus dem Internet nicht direkt zugegriffen werden, was meistens zwar aus Sicherheitsgründen erwünscht ist (siehe auch: Firewall), aber auch offensichtliche Nachteile hat. Für IPv6 stehen erheblich mehr öffentliche Adressen zur Verfügung, so kann laut RFC 4864 auf NAT verzichtet werden und es ist freier wählbar, wie die Filterung des Datenverkehrs erfolgen soll.
Energieverbrauch

→ siehe auch: Green IT

Der Strombedarf in den Privathaushalten ist durch die intensive Nutzung des Internets in den letzten Jahren erheblich angestiegen und wird seriösen Schätzungen zu Folge auch in den nächsten Jahren weiter steigen. Im Jahr 2003 wurden in Deutschland etwa 6,8 Milliarden Kilowattstunden elektrischer Strom für den Betrieb des Internets benötigt, für das Jahr 2010 gehen Schätzungen von einem Energiebedarf des Internets von 31,3 Milliarden Kilowattstunden nur in Deutschland aus. Berücksichtigt wurden sowohl die Endgeräte von Privathaushalt und Gewerbe sowie der Energieaufwand zur Bereitstellung der notwendigen Infrastruktur des Internets an Serverstandorten. Nicht in diese Rechnung eingegangen ist der Energiebedarf von Serverstandorten im Ausland.[10] Am Stromverbrauch eines Privathaushaltes ist die Nutzung des Internets zu einem großen Teil beteiligt.[11]

Für das Jahr 2005 wird weltweit von einem Energieverbrauch von 123 Milliarden Kilowattstunden nur für den Betrieb der Infrastruktur für das Internet ausgegangen. Unberücksichtigt bleiben nach dieser Studie die Geräte der Endverbraucher.[12] Aufgrund der stetigen Vergrößerung des Netzes auch in den Entwicklungsländern ist mit einem weiteren Anstieg des Verbrauches zu rechnen, derzeit werden etwa 0,8 % der weltweiten Stromerzeugung für den Betrieb des Internets benötigt.[13]
Ausmaße und Größe/Statistik Nutzung

Dieser Abschnitt behandelt den Zugang zum Internet unter demographischen Aspekten; ein separater Artikel behandelt technische Prinzipien und Varianten des Internetzugangs.
Verbreitung des Internets in Europa Land ↓ Anteil der Internetnutzer ↓
Niederlande 81 %
Dänemark 76 %
Finnland 75 %
Schweden 75 %
Island 86 %
Norwegen 81 %
Deutschland 64 %
Italien 34 %
Bulgarien 28 %
Griechenland 28 %
Rumänien 22 %
Spanien 40 %
Estland 60 %
Österreich 72 %

Die Anzahl der Teilnehmer oder angeschlossenen Geräte im Internet ist nicht exakt bestimmbar, da Nutzer mit unterschiedlichen technischen Geräten (PCs, Mobilgeräten, …) über verschiedene Anschlusstechniken kurzfristig Teil des Internets werden und dieses auch wieder verlassen. Laut IWS hatten im März 2007 etwa 16,9 Prozent der Weltbevölkerung Zugang zum Internet.[14] Laut EITO nutzen Anfang 2008 1,23 Milliarden Menschen das Internet.[15] In der EU nutzen Anfang 2008 mehr als die Hälfte (51 Prozent) der 500 Millionen EU-Bürger regelmäßig das Internet, wobei 40 Prozent das Internet gar nicht benutzen. In den EU-Ländern gibt es starke Unterschiede bei den regelmäßigen Internetbenutzern: siehe Tabelle. 80 Prozent der Haushalte mit Internetanschluss verfügen über einen Breitbandzugang.[16] In den USA sind es bereits 75 Prozent, skandinavische Länder 70 Prozent, osteuropäische Staaten teilweise bei 14 Prozent. Besonders verbreitet ist das Internet in Estland, da Estland per Gesetz den kostenlosen Zugang ins Internet garantiert.

In China hatten nach dem Report über die Entwicklung des Internets Mitte 2007 162 Millionen Menschen einen Internetzugang, davon besaßen 122 Millionen einen Breitbandanschluss.[17] Bei jungen Europäern verdrängt das Internet das Fernsehen und andere traditionelle Medien.[18] US-Amerikaner nutzen als Nachrichtenquellen vorwiegend (48 Prozent) das Internet.[19]
In Deutschland

Etwa 60 Prozent aller Deutschen nutzen regelmäßig das Internet, Tendenz steigend um 2 bis 3 Prozent jährlich. In etwa 75 Prozent der deutschen Haushalte stehen PCs mit Internetanschluss, die jedoch mehr von jungen Menschen als von alten Menschen genutzt werden. In Deutschland verfügen ungefähr 68 Prozent der Erwachsenen über einen Internetanschluss.[20] Etwa 80 Prozent der deutschen Jugendlichen (10-13 Jahre) nutzen das Internet.[21] Neben alten Menschen nutzen in Deutschland auch sozial Schwache und Arbeitslose das Internet weniger[22][23] (siehe auch Digitale Kluft). In Deutschland verfügen ca. 60 Prozent der Internetnutzer über einen Breitbandzugang.[24] In der Schweiz verfügen im Jahr 2006 67 Prozent der Bevölkerung über einen privaten Internetzugang.[25]

Deutsche besuchen statistisch gesehen regelmäßig acht Internet-Seiten. (Männer: durchschnittlich 9,4; Frauen: 6,4 Seiten / 14- bis 19-jährige: 5,8; 30 bis 39 Jahre alte: 9,1 Seiten). Die Jungen nutzen bevorzugt Unterhaltungsangebote.[26] Die deutschen Männer sind im Durchschnitt 1,3 Stunden am Tag online, bei den deutschen Frauen sind es durchschnittlich 0,8 Stunden.[27]
Begriff
Herkunft

Der Begriff „Internet“ ist ein Anglizismus, der sich aus der ursprünglich rein fachbezogenen Benutzung im Rahmen der gesellschaftlichen Durchdringung unverändert in der Alltagssprache als Eigenname etabliert hat. Er wurde aus der Beschreibung „Interconnected Networks“, also „mit-/untereinander verbundene Netzwerke“, auch „Zusammengeschaltete Netzwerke“, gebildet, da das Internet aus einem Zusammenschluss zahlreicher Teilnetze mittels der technischen Standards des sehr dezentral strukturierten Arpanets entstand.
Deutsche Bezeichnungen

In der deutschen Sprache gibt es, teils aus Eindeutschungsbemühungen von Sprachpflegevereinen, verschiedene Synonyme wie „Weltnetz“, „Zwischennetz“ oder „Internetz“. Einige davon, etwa 'Weltnetz', werden auch oder vornehmlich in rechtsgerichteten Kreisen verwendet.[28] Andere sind zwar seit Mitte der 1990er Jahre bekannt und in diversen sprachkritischen Publikationen zu finden, haben aber in der Alltagssprache keine praktische Bedeutung erlangt.[29] Weder „Weltnetz“[30] noch „Zwischennetz“[31] sind – im Gegensatz zu „Internet“ – bis heute in den Duden (24. Auflage) aufgenommen worden. In der Alltagssprache wird der Begriff „Internet“ oft schlicht mit dem Wort „Netz“ abgekürzt.

Die Oxidation (oder Oxydation) ist eine chemische Reaktion, bei der ein zu oxidierender Stoff (Elektronendonator) Elektronen abgibt.[1] Ein anderer Stoff (Oxidationsmittel) nimmt die Elektronen auf (Elektronenakzeptor) und wird dadurch reduziert. Mit der Oxidation ist also immer auch eine Reduktion verbunden. Beide Reaktionen zusammen werden als Teilreaktionen einer Redoxreaktion betrachtet.

Oxidation:
\mathrm{A \longrightarrow A^+ + e^-}
Stoff A gibt ein Elektron ab.

Reduktion:
\mathrm{B + e^- \longrightarrow B^-}
Das Elektron wird von Stoff B aufgenommen.

Redoxreaktion:
\mathrm{A + B \longrightarrow A^+ + B^-}
Stoff A gibt ein Elektron an Stoff B ab.

Schematische Darstellung der Bildung von Rost (braun) auf Eisen (grau) in Gegenwart von Wasser (blau) und Sauerstoff (hellblaue Tönung) als Redoxreaktion zwischen Eisen und gelöstem Luftsauerstoff
Inhaltsverzeichnis
[Verbergen]

* 1 Geschichte
* 2 Oxidation durch Sauerstoff
o 2.1 Ursprüngliche Bedeutung und Erweiterung des Begriffs
o 2.2 Beispiele der Oxidation durch Sauerstoff
* 3 Oxidation ohne Sauerstoff
* 4 Oxidationszahl
* 5 Oxidation in der Biologie
* 6 Einzelnachweise

Geschichte [Bearbeiten]

Der Begriff Oxidation wurde ursprünglich von Antoine Laurent de Lavoisier geprägt, der damit die Vereinigung von Elementen und chemischen Verbindungen mit dem Element Sauerstoff (Oxygenium franz: oxygene), also die Bildung von Oxiden beschreiben wollte. Später erfolgte eine Erweiterung des Begriffes, indem man Reaktionen, bei denen Wasserstoff-Atome einer Verbindung entzogen wurden (Dehydrierung), mit einbezog. Auf Grundlage der Ionentheorie und des Bohrschen Atommodells konnte die Oxidation schließlich unter elektronentheoretischen Gesichtspunkten interpretiert und verallgemeinert werden. Das Charakteristische an diesem Vorgang wird nun in der Elektronenabgabe eines chemischen Stoffes gesehen.
Oxidation durch Sauerstoff [Bearbeiten]
Aufflammen eines Brennstoffes (Flüssigwachs) beim Gießen in eine Flamme: Feuer entfacht, wenn Brennstoff, Luft und Zündenergie zusammenkommen
an der Luft oxidierte Vanadiumspäne, die unter Volumenzunahme im oberen Glas in das schwarze Divanadiumtrioxid übergegangen sind
Ursprüngliche Bedeutung und Erweiterung des Begriffs [Bearbeiten]

Als Oxidation im ursprünglichen Sinn bezeichnete man früher die chemische Reaktion eines Stoffes mit Sauerstoff. Oxidationen unter Flammenerscheinung werden als Verbrennung oder Feuer bezeichnet. Aber auch heute noch assoziiert man mit dem Begriff Oxidation vielfach die Umsetzung mit (Luft-)Sauerstoff und die Bildung von Oxiden. Jedoch ist im Rahmen der allgemeineren Definition diese Reaktion nur eine von vielen, die sich mit Hilfe der Valenzelektronentheorie erklären lässt.

Reagiert z. B. ein Metallatom mit einem Sauerstoff-Atom, so kann man die Oxidation des Metalls und somit die Metalloxidbildung anhand folgender Reaktionsgleichungen nachvollziehen:

Oxidation:
\mathrm{M \longrightarrow M^{2+} + 2e^-}
Oxidation: Das Metall M gibt zwei Elektronen ab.

Reduktion:
\mathrm{O + 2e^- \longrightarrow O^{2-}}
Sauerstoff (O) nimmt zwei Elektronen auf.

Redoxreaktion:
\mathrm{M + O \longrightarrow M^{2+} + O^{2-}}
Sauerstoff oxidiert das Metall und wird dabei selbst reduziert.

Sauerstoff hat in diesem Fall die Tendenz, durch Aufnahme von zwei Elektronen eine stabile Valenzelektronenschale mit insgesamt acht Elektronen aufzubauen (Oktettregel). Das Metall wiederum kann durch Abgabe der Elektronen teilbesetzte Schalen auflösen und so die nächst niedrigere stabile Elektronenkonfiguration erreichen.
Beispiele der Oxidation durch Sauerstoff [Bearbeiten]

Klassische Beispiele für die Oxidation durch Sauerstoff sind alle Arten der Verbrennung von kohlenstoffhaltigen Stoffen unter Luftsauerstoff, z. B. Verbrennung von Kohle, Holz, Benzin im Motor, Kerzen usw. Ausgehend von Kohle (reiner Kohlenstoff) gibt jedes Kohlenstoff-Atom vier Elektronen an zwei Sauerstoff-Atome zur Ausbildung von zwei Doppelbindungen ab. Es entsteht Kohlendioxid (CO2).

\mathrm{C + O_2 \longrightarrow CO_2}
Kohlenstoff + Sauerstoff → Kohlenstoffdioxid

Nahrung wird im Körper in den vielen Schritten des biochemischen Stoffwechsels u. a. zu körpereigenen Stoffen, Kohlenstoffdioxid (CO2) und Wasser oxidiert. Ein Beispiel ist die β-Oxidation von Fettsäuren. Nicht nur in vivo, auch in vitro können organische Stoffe auf vielfältige Weise mit Sauerstoff reagieren: Ein primärer Alkohol (Alkanol) wird sanft oxidiert. Dabei entsteht zunächst ein Aldehyd (Alkanal), bei nochmaliger Oxidation eine Carbonsäure (Alkansäure). Bei energischerer Oxidation kann der Schritt zum Aldehyd übersprungen werden. Wird ein sekundärer Alkohol oxidiert, so bildet sich dabei ein Keton (Alkanon). Tertiäre Alkohole können auf Grund ihrer bereits vorhandenen drei C-Bindungen nicht oxidiert werden.

Eisen rostet (korrodiert) unter dem Einfluss von Sauerstoff und bildet verschiedene Eisenoxide (Rost, Fe2O3, Fe3O4, FeO).

Bei der Reaktion von Wasserstoff mit Sauerstoff (Knallgas) entsteht Wasserstoffoxid, besser bekannt als Wasser (H2O):

\mathrm{2H_2 + O_2 \longrightarrow 2H_2O}
Wasserstoff + Sauerstoff → Wasser

Oxidation ohne Sauerstoff [Bearbeiten]

Der Begriff der Oxidation wurde später auf Reaktionen erweitert, die nach dem gleichen chemischen Prinzip ablaufen, auch wenn kein Sauerstoff daran beteiligt ist. Im weiteren Sinne bedeutet Oxidation das Abgeben von Elektronen. Zum Beispiel gibt bei der Reaktion von Natrium und Chlor zu Natriumchlorid das Natriumatom ein Elektron an das Chloratom ab, Natrium wird also oxidiert. Im Gegenzug wird Chlor dabei reduziert.

Teilreaktion Oxidation
\mathrm{Na \longrightarrow Na^+ + e^-}
Natrium gibt ein Elektron ab.

Teilreaktion Reduktion
\mathrm{Cl + e^- \longrightarrow Cl^-}
Im Gegenzug wird Chlor durch Aufnahme eines Elektrons reduziert.

Gesamtreaktion
\mathrm{Na + Cl \longrightarrow Na^+ + Cl^-}
Natrium und Chlor reagieren in einer Redoxreaktion miteinander.

Da Chlor nur molekular als Cl2 in die Reaktion eingeht, schreibt man genauer

\mathrm{2Na + Cl_2 \longrightarrow 2Na^+ + 2Cl^- (2NaCl)}

Oxidationszahl [Bearbeiten]

Die Oxidationszahl wird als hypothetische Ladungszahl eines Atoms oder einer Atomgruppe (Molekül) definiert. Bei der Oxidation wird die Oxidationszahl erhöht (Na0 → Na+I), bei der Reduktion verringert.

Bei einem Molekül wird/werden das/die bindende(n) Elektronenpaar(e) dem Atom zugesprochen, dessen Elektronegativität höher ist. Zahlen gleichartiger Atomverbindungen werden untereinander gleich aufgeteilt. Ionen haben als Summe ihrer Oxidationszahlen ihre Ladungszahl, Moleküle die Summe 0. Bedeutend sind die Oxidationszahlen jener Atome, die Bestandteil einer funktionellen Gruppe sind.
Oxidation in der Biologie [Bearbeiten]

Die Oxidation ist nicht zwangsläufig mit einer vollständigen Abgabe von Elektronen und damit der Ionisation der beteiligten Stoffe verbunden – insbesondere in der Organischen Chemie und Biochemie.

Vor allem hier, in der Biologie und Biochemie, definiert man Oxidation NICHT als „Abgabe von Wasserstoff“.

Bei vielen biochemischen Vorgängen in der Zelle, z. B. der Glycolyse, werden organischen Verbindungen Wasserstoffatome durch bestimmte Coenzyme (NAD, NADP, FAD - heute eher
blabla.

Unter einer Unterhose versteht man ein Kleidungsstück, das unter einer Hose, einem Rock oder Kleid getragen wird und das Gesäß und die Geschlechtsorgane bedeckt. Die Unterhose zählt damit zur Unterwäsche. Es gibt Unterhosen für Männer und für Frauen.
Inhaltsverzeichnis
[Verbergen]

* 1 Arten
* 2 Geschichte
* 3 Tragegewohnheiten
* 4 Trivia
* 5 Siehe auch
* 6 Einzelnachweise
* 7 Weblinks

Arten [Bearbeiten]

Je nach persönlichen Präferenzen, Geschlecht und weiteren Umständen (wie der Witterung), stehen verschiedene Arten von Unterhosen zur Verfügung.

* String, Tanga, String-Tanga
* Slip, Sportslip, Minislip
* Boxershorts (weit geschnitten)
* Retroshorts (eng geschnitten)
* Retropants/Slipboxer/Boxer Briefs
* Pants/Hüftpants
* lange Unterhose

Eine Unterhose ist normalerweise eng anliegend. Weit geschnittene Unterhosen werden auch als Boxershorts, das weite Beinkleid der ungarischen Bauern als Gatya, bezeichnet. Unterhosen für Jungen oder Männer haben häufig einen „Eingriff“, d. h. eine Einschlitzung auf der Vorderseite, durch die der Penis beim Urinieren geführt werden kann. Viele Männer halten den "Eingriff" in der Unterhose jedoch für umständlich und daher überflüssig und tragen eingrifflose Slips.

Lange Unterhosen (nach ihrem englischen Namen auch Long Johns) werden, vorwiegend von Männern, in 3/4 oder 1/1 Länge als Kälteschutz in der kalten Jahreszeit oder beim Wintersport getragen. Umgangssprachlich werden sie auch als Liebestöter bezeichnet. Als Alternativen kommen warme Strumpfhosen in Frage.
Geschichte [Bearbeiten]

Zur Geschichte der Hose allgemein, siehe auch Hose

Der Vorläufer der heutigen Unterhose ist die mittelalterliche Brouche, eine Art sehr weiter, langer Unterhose an deren Gürtel die Beinlinge angenestelt waren. Im Laufe der Zeit wurden die Beinlinge länger und entwickelten sich zur enganliegenden Hose, zeitweise mit Schamkapsel, die weite und lange Brouche wurde dabei enger und kürzer.

Um 1870 kam die lange Unterhose auf. Der Vorderschlitz wurde nach dem Ersten Weltkrieg eingeführt.

Frauen trugen bis zum Anfang des 19. Jahrhunderts generell keine Unterhose; allenfalls trugen Bäuerinnen eine Hose als Kälteschutz unter dem Kleid. Wobei es hier Überlieferungslücken geben könnte, da sich keine Schriften oder Bilder finden, die sich näher mit dem als profan empfundenen Thema Unterbekleidung beschäftigen. Etwa 1805 gab es die ersten "Beinkleider" für Damen, die bis unters Knie oder bis an die Knöchel reichten und weit geschnitten waren. Sie waren aus Leinen oder Baumwolle und im Schritt offen. Nach 1840 war die Unterhose für eine Dame Pflicht; die unteren Schichten gingen jedoch weiterhin "unten ohne". Gegen Ende des 19. Jahrhunderts war die weibliche Unterhose sehr weit geschnitten wie eine Pluderhose. Ab 1877 gab es einteilige Kombinationen wie die Hemdhose oder die "Unterrockhose". Der Schlüpfer wurde 1914 eingeführt.
Tragegewohnheiten [Bearbeiten]

Heute ist es gesellschaftlicher Konsens, dass eine Unterhose aus hygienischen Gründen häufiger als die übrige Kleidung gewechselt wird. Dies ist durch die günstige Verfügbarkeit der Unterwäsche an sich und die einfache Reinigungsmöglichkeit durch Waschvollautomaten in beinahe jedem Haushalt möglich geworden. Noch in den 1950er Jahren war das anders - Lehrer ermahnten ihre Schüler, die Unterwäsche mindestens einmal in der Woche zu wechseln.

Unterhosen werden, wie der Name sagt, unter einer anderen Hose getragen, so dass sie nicht sichtbar sind. Es gibt allerdings aktuelle Modetrends, die dem entgegenwirken.[1] Generell wird seit einiger Zeit Unterwäsche auch sichtbar getragen.[2] Dieses sogenannte sagging entstammt amerikanischen Gefängnissen, wo Insassen keine Gürtel besitzen dürfen.

Turnhosen und Sporthosen, die oft auch direkt auf dem Körper getragen werden, werden normalerweise dennoch nicht den Unterhosen zugerechnet. Das Tragen von Unterwäsche zu Badehosen ist in gewissen Badeanstalten aus hygienischen Gründen gar unerwünscht.[2]
Trivia [Bearbeiten]

Unterhose ist auch der Spitzname des Schönbergturms bei Pfullingen („Pfullinger Unterhose“).
__________________
Phantasie ist wichtiger als Wissen, denn Wissen ist begrenzt.

Albert Einstein, 14.03.1879 - 18.04.1955
Quiksilver ist offline   Mit Zitat antworten