Wissenschaft & Technik

Samstag, 9. Dezember 2006

Selbstlosigkeit aus Konkurrenzdruck

Interessante Fundsache zu einem Thema, dass in den Gassen Kleinbloggersdorfs, in denen ich mich herumtreibe, durchaus relevant ist: die Frage nach segensreicher oder schädlicher Konkurrenz.
Auf wissenschaft.de: Steinzeitmenschen mit sozialer Ader.

Altruismus hat sich als Folge der Konkurrenz unter Menschengruppen entwickelt - zu dieser Ansicht sind einiger Forscher um Samuel Bowles vom Santa Fe Institute gekommen, die mittels noch lebender Jäger-Sammler-Kulturen den genetischen Variantenreichtum und die gesellschaftlichen Grundzüge der Menschen in der Steinzeit rekonstruierten.

Dabei gehen Bowles und sein Team von einem stark von der Soziobiologie geprägten Ansatz aus - was bringt den Genen einer Menschengruppe einen evolutionären Vorteil?
Gemeinschaften, in dem es innerhalb der Gruppe uneigenützig zugeht, haben einen evolutionären Vorteil gegenüber Gruppen, in denen jeder stets um den eigenen Vorteil bemüht ist.
Sie konnten sich als Gemeinschaft mit engen sozialen Bindungen besser gegen fremde, konkurrierende Gruppen durchsetzen und dadurch ihre Überlebenschancen steigern. Der sogenannte Altruismus konnte sich so als wichtiger Wesenszug des Menschen etablieren.
Bei ihren Untersuchungen zeigte sich, dass die genetische Vielfalt innerhalb einer Gruppe von Steinzeitmenschen war weitaus geringer war als Forscher bisher dachten. Dagegen waren die Unterschiede zwischen den Gruppen sehr viel größer.

Ganz im Sinne der Soziobiologie argumentiert Bowles, dass diese Konstellation vom evolutionären Standpunkt aus die Entwicklung von altruistischem Verhalten fördern würde.
Wer sich nämlich für die eigene Gruppe und deren Überleben selbstlos einsetzt, sichert damit auch den Bestand der eigenen Gene. Das Wohlergehen der Gruppe als Ganzes ist damit wichtiger als der persönliche Vorteil – ein Zusammenhang, aus dem schließlich Verhaltensweisen entstanden, wie etwa Kranke und Verletzte zu pflegen oder Nahrung zu teilen.

Ich persönlich halte diese Argumentation - wohlgemerkt: nicht die Forschungsergebnisse an sich! - für problematisch: die Nähe zu guppenegoistischen oder gar rassistischem Denken ist frappierend. Damit liessen sich sowohl "völkische" bzw. auf Neurechts, "ethnopluralistische" Blut & Boden-Ansätze, im Sinne des "blutsverwandten Stammes" und sogar nationalistisch-kollektives Denken, im Sinne "du bist nichts, dein Volk ist alles", biologistisch rechtfertigen.

Die Hypothese, dass Altruismus innerhalb einer Gruppe die Überlebenschancen steigert, ist naheliegend. Es ist auch plausibel - und u. A. durch die Verhaltensforschung belegt - dass unter zwei rivalisierenden Gruppe jene, in der es soziale" zugeht, bessere evolutionäre Chancen hat - und sei es, weil die Kinder- und Müttersterblichkeit geringer ist.
Hingegen ist es m. E. durchaus fragwürdig, ob der nachgewiesene größere Verwandschaftsgrad innerhalb einer Gruppe den Altruismus wirklich fördert. Es gibt ernstzunehmende Hinweise, dass z. B. das sexuelle Interesse zwischen engen Verwandten durch den jeweiligen Körpergeruch gedämpft wird - jemand, der so ähnlich riecht wie ich, den kann ich als Sexpartner normalerweise "nicht riechen". Ein simpler Mechanismus gegen zuviel Inzucht. Übrigens eine mögliche biologische Erklärung dafür, wieso viele Stammesgesellschaften relativ leicht "Fremde" adoptieren. (Und zwar im Wortsinne.)
Exogamie - die Heirat außerhalb der eigenen Gruppe - ist in nahezu allen Stammesgesellschaften üblich.

Hingegen ist es seit langem bekannt, dass sich Erwachsene besonders um jene Kinder kümmern, von denen sie annehmen, dass sie ihre Kinder sind. (Es waren solche Beobachtungen, die die Soziobiologie erst anstieß.) Wichtig scheint dabei aber die Annahme der Elternschaft zu sein - außer dem simplen, störanfälligen, unbewußt wirkenden und im Falle der Menschen äußerst "leistungsschwachen" Körpergeruchs-Mechanismus gibt es unter Steinzeitbedigungen keine Möglichkeit für einen Mann, seiner Vaterschaft sicher zu sein.
Ob sich also Menschen als "Sippe", "Clan" oder "Stamm" verstehen, und als solcher "Zusammenhalten", hängt meiner Ansicht nach nicht von ihrer genetischen, sondern ihrer gefühlten Verwandtschaft ab.

Mittwoch, 22. November 2006

"Deutschland sucht den Super-Erfinder"

Heute (22. November 2006) und morgen abend berichtet das ZDF über ein Ereignis, das aufgrund seine medialen Aufbereitung gut und gerne "Deutschland sucht den Super-Erfinder" heißen könnte: Am 23. 11. wird zum 10. Mal der vom damaligen Bundespräsidenten Roman "Ruck" Herzog initiirte "Deutsche Zukunftspreis" verliehen.

Deutscher Zukunftspreis

Trotz der Show drumherum, trozt wahrer Fluten aus Politikersprech und PR-Kleister halte ich den "Zukunftspreis" für einen der wichtigsten Preise, der in Deutschland vergeben wird. Denn er lenkt die Aufmerksamkeit auf die Orte, an dem die technologische und ökomische Zukunft buchstäblich gemacht wird: die Forschungslabors und Entwicklungsabteilungen. Wie viele und welche Erfindungen gerade gemacht werden, und ob und wo sie sich durchsetzen, das ist meines Erachtens ungleich wichtiger für die Welt, in der wir den Rest unseres Lebens leben werden, als z. B. Fragen zum demographischen Wandel, zu Lohnnebenkosten, zur Kriminalitätsbekampfung (reines Hype-Thema übrigens, die Kriminalitätsrate ist in den meisten Bereichen seit Jahren rückläufig), zur Gesundheitsreform, zur Überfemdung (wird nicht so genannt, aber gemeint) und was auch immer als "drängende Zukunftsfragen" auf die Agenda gesetzt wird.
Ich drücke es mal so aus: Von interessierter Seite (sind mehrere, durchaus miteinander konkurrierende, Verbände, Stiftungen und Lobbybuden) wird in etwa folgendes Bild vom "Standort Deutschland" gemalt: Vergreisende, sich auf längst verwelkten Lorbeeren ausruhende, tendenziell faule, zu Neuerungen unfähige Gesellschaft, zu höhe Löhne, zu wenig Arbeitsbereitsbereitschaft, zu wenig Flexibilität - und zu viel "Orchideenfächer", zu viel "nicht anwendungsorientierte Forschung", zu lange Studienzeiten an den Unis. Dass die "wirklich wichtigen Erfindungen" seit Jahren "woanders" (USA, Japan, neuerdings auch China und Indien) gemacht werden, und die "einstige Erfindernation" Deutschland sich auf "Technologien von gestern" ausruhen würde, das ist inzwischen weitgehend Konsenz. Da setzt der Zukunftspreis ein kleines Gegengewicht. Denn Erfinder sind im allgemeinen weniger prominent als selbst die C-Promis im Showgeschäft. Fragt mal irgendjemanden, wo z. B. das MP3 Verfahren erfunden wurde und wer die Entwicklung leitete. Selbst Computerfreaks müssen da meistens passen.

Es gibt auch sachliche Kritik am Zukunftspreis. Zum Beispiel die, dass sich viele der preisgekrönten Erfindungen und Entwicklungen als saftige Flops erwiesen hätten - "Deutscher Hypepreis". Oder dass unter den Nominierten fast nur Konzerne vertreten sind. "Eigenlob der Großindustrie".

Sehen wir uns einmal die bisherigen Zukunftspreisträger an:
  • 1997 Christian Deter (Laser Display Technologie. Gera) für die Laser-Großbildprojektion. Der meistzitierte "Flop": Aufwand und Kosten der Entwicklung wurden unterschätzt, die Anwendungsmöglichkeiten überschätzt. Die Schneider-Rundfunkwerke, die auf diese Entwicklung setzten, gingen darüber in den Konkurs. Bis heute gibt es kein Laser-TV - es wäre schlicht viel zu teuer. Allerdings: bei Planetarien und Flugsimulatoren setzt sich die Laserprojektionstechnik durch.)
  • 1998 Peter Grünberg (Forschungszentrum Jülich) für die Entdeckung des GMR-Effekts. Der GMR-Effekt ermöglich den Bau hochempfindlicher Magnetfeldsensoren, die eine 200-fache Steigerung der Speicherdichte in Computerfestplatten möglich machen. Schon 1998 hatten sich GMR-Festplatten weitgehend durchgesetzt, heute gibt es kaum noch andere.
  • 1999 Peter Gruss, Herbert Jäckle (Max Plank-Institut für Biophysikalische Chemie, Göttingen) für Molekularbiologische Verfahren für innovative Therapie. Ein neuer Ansatz zur Therapie z. B. von Diabetis. Wegen der langen Entwicklungzeiten und Zulassungsverfahren bei Medikamenten ist der Erfolg heute erst in Ansätzen überschaubar. Ein "Flop" ist die Entwicklung jedoch auf keinen Fall.
  • 2000 Karlheinz Brandenburg, Bernhard Grill, Harald Popp (Fraunhofer-Institut für Integrierte Schaltungen, Illmenau) für MP3-Komprimierung von Audiosignalen in HiFi-Qualität für Internet und Rundfunk. Der größte Erfolg, bis heute eine Goldgrube für die Fraunhofer-Gesellschaft, die damit ein großes Stück Unabhängigkeit errang. Dass die industrielle Umsetzung in Deutschland eher verschlafen wurde, ist nicht den Erfindern anzulasten.
  • 2001 Wolfgang Wahlster (Deutsches Forschungszentrum für Künstliche Intelligenz, Saarbrücken) für Sprachverstehende Computer als Dialog- und Übersetzungsassistenten.Sichere, aber konservative Wahl der Jury. Denn Wahlster ist nur einer von vielen, die auf diesem Feld arbeiten. Der Zweitplazierte, Theodor Hänsch mit seinem laserbasierten Präzisionsmikroskop, erhielt 2005 für seine Entdeckung den Nobelpreis für Physik ...
  • 2002 Martina-Regina Kula, Martina Pohl (Institut für Enzymtechnologie der Heinrich-Heine-Universität Düsseldorf) für Sanfte Chemie mit biologischen Katalysatoren.Biokatalysatoren ermöglichen dass Sytheseprozesse in der chemischen Industrie bei Normaldruck und Zimmertemperatur ablaufen, die im herkömmlichen Verfahren Hochdruck-Reaktoren und hohe Temperaturen benötigen. Die Energieeffizienz steigt enorm, das Unfallrisiko reduziert sich stark. Vielleicht gelten Kula und Pohl in ein paar Jahren als "Retterinnen des Chemiestandortes Deutschland"
  • 2003 Kazuaki Tarumi, Melanie Klasen-Memmer, Mathias Bremer (Merck, Darmstadt) für die Entwicklung von Flüssigkristallen, die Blickwinkelabhängigkeit, Kontast und Reaktionszeiten in Flüssigkristall-Displays (LCD) entscheidend verbessern. Diese Innovation sichert dem Darmstädter Unternehmen die weltweite Markführerschaft, alle namhaften LCD Hersteller sind dort Kunden, der Weltmarktanteil der Merck-Flüssigkristalle beträgt 70 %. Ohne die verbesserten Kristalle wären großformatige LCD-Flachbildschirme gar nicht machbar.
  • 2004 Rainer Hintsche (Frauenhofer-Institut für Siliziumtechnologie, Itzehoe), Walter Gumbrecht (Siemens,Erlangen), Roland Thewes (Infenion, München) für Labor auf dem Chip - Elektronische Biochiptechnologie. Die neuartigen Biochips, die anders als bisher gebäuchlich Biosensoren mit elektrischem Strom arbeiten, ermöglichen sehr kompakte, preiswerte, schnelle und zuverlässige Analysegeräte für Proteine, Krankheitserreger und biologische Giftstoffe.
  • 2005 Friedrich Boeking (Robert Bosch, Stuttgart), Klaus Egger, Hans Meixner (Siemens VDO, Regensburg) für Piezo-Injektoren Eine neue Einspritz-Technik, die saubere und sparsame Diesel- und Benzinmotoren ermöglicht. Eher konservative Jury-Entscheidung. Ob sie sich am Weltmarkt durchsetzt, ist noch nicht sicher..
Fazit: Ein "Teilversager", ausgerechnet beim ersten vergebenen Preis, drei ganz große Erfindungen und drei Entwicklungen, deren wirtschaftlicher Erfolg noch nicht voll überblickt werden kann. Und die viel geschmähten öffentlichen Forschungseinrichtungen schnitten weitaus besser ab, als es die "konservativ-liberale" Standort-Propaganda glauben machen will.

Nachtrag:Der deutsche Zukunftspreis 2006 geht an den Göttinger Physikprofessor Dr. Stefan Hell, Direktor des Max-Planck-Instituts für Biophysikalische Chemie. Hell hat ein verbessertes Lichtmikroskop entwickelt, das eine Bildauflösungs im Nanometer-Bereich erreicht, was bisher nur mit Elektronenmikroskopen möglich war. Das hellsche Mikroskop erlaubt, im Gegensatz zum Elektronenmikroskop, die Untersuchung lebender Zellen, was z. B. in der Krebsforschung wichtig ist. Ich gratuliere!

Dienstag, 14. November 2006

"Anti-Grav" bald technisch machbar?

Wohl eher nicht, obwohl österreichische Physiker einen exotischen relativistischen Effekt entdeckten, der zumindest die aus Science Fiction-Raumschiffen bekannte "künstliche Schwerkraft" etwas mehr aus dem Bereich "Fiction" hin zur "Science" verschiebt. wissenschaft.de: Die Anziehungskraft von rotierenden Supraleitern.

Im gut bewährten Modell der psysikalischen Kräfte klaffte bisher eine ärgerlich Lücke: die Schwerkraft (Gravitation) passte nicht so recht hinein. Schon zu Einsteins Zeiten - und aufbauend auf seiner
Allgemeinen Relativitätstheorie (wikipedia: Relativitätstheorie) sagten einige Physiker den Gravitomagnetismus (analog zum Elektromagnetismus) voraus, in dem die Schwerkraft von massenlosen Teilchen, den Gravitonen, übertragen wird, ähnlich wie Photonen die elektromagnetische Strahlung übertragen.
Martin Tajmar und seinen Kollegen von der ARC Seibersdorf research GmbH in Österreich entdeckten im Experiment einen Effekt, in dem sich die Gravitonen bemerkbar machen – und zwar dadurch, dass sie in rotierenden Supraleitern eine Masse besitzen, berichtet das britische Wissenschaftsmagazin New Scientist.

Der Allgemeinen Relativtätstheorie zufolge verdreht ein massiver Körper, der sich dreht, zum Beispiel ein Planet oder ein Stern, aber auch jedes andere massive Objekt, die Raumzeit. Das klingt unheimlicher, als es ist, denn wenn sich ein geladener Körper in einem Magnetfeld dreht und damit einen elektrischen Strom erzeugt, passiert etwas ähnliches - daher auch der Name Gravitomagnetismus, obwohl die Kraft ansonsten nichts mit Magnetismus zu tun hat.

Eine elegante Theorie, mit dem kleinen Schönheitsfehler, dass der Gravitomagnetismus bisher nicht beobachtet wurde, weil es so schwer zu beobachten ist. Der Einfluss des Gravitomagnetismus ist so klein, dass sich die Rotationsachsen von drei perfekt runden, kreiselnden Kugeln auf dem Nasa-Satelliten Gravity Probe B innerhalb eines Jahres lediglich um 42 Milli-Bogensekunden verschieben - eine Milli-Bogensekunde ist ein Tausendstel einer Bogensekunde, 60 Bogensekunden sind eine Bogenminute, 60 Bogenminuten ein Winkelgrad. Die Daten des Satelliten, der von 2003 bis 2005 zwei Jahre lang um die Erde kreiste, werden gerade ausgewertet.

Zu ihrer eigenen Überraschung konnte das Forscherteam um Tajmar den Effekt nun aber auf der Erde nachweisen, und zwar bei rotierenden Supraleitern. (wikipedia: Supraleiter) Noch größer ist die Überraschung, dass Gravitonen anscheinend - entgegen der Theorie - nicht wie Photonen masselos sind.

Die Kraft, die ein sich drehender, supraleitender Niob-Ring auf Beschleunigungsmesser ausübte, war nämlich um 17 Größenordnungen – also um den Faktor 10 hoch 17 – stärker als von der Relativitätstheorie vorhergesagt. Die Forscher führen dies darauf zurück, dass Gravitonen in Supraleitern nicht mehr masselos sind, sondern die unvorstellbar winzige Masse von 10 hoch -54 Kilogramm besitzen. Zum Vergleich: Ein Elektron wiegt 10 hoch -30 Kilogramm.
Bislang konnten die Forscher alle ihre theoretischen Überlegungen experimentell überprüfen, heißt es im "New Scientist". Insgesamt führten sie 250 Versuche mit unterschiedlichen Supraleitern sowie zusätzlichen und präziseren Sensoren durch, um mögliche Fehlerquellen auszuschließen.

Dennoch ist die Gemeinde der theoretischen Physiker skeptisch: "Sollte das Graviton eine Masse besitzen, müsste das Standardmodell der Teilchenphysik neu geschrieben werden", sagt etwa James Overduin von der Stanford University. Auch für die Kosmologie hätte diese Entdeckung weitreichende Konsequenzen - vom Alter des Universums bis zur Lebensdauer des Sonnensystems.

Ein anderer Grund zur Skepsis liegt darin, dass schon andere Forscher Anti-Gravitationseffekte in der Umgebung rotierender Supraleiter beobachtet haben wollen - und sind damit mangels Wiederholbarkeit der Experimente, oder weil "Dreckeffekte" z. B. durch Luftströmungen nicht sicher ausgeschlossen werden konnten, zu oft auf die Nase gefallen.
Robert L. Forward, Astrophysiker und Science Fiction Autor, hatte übrigens schon 1961 eine Antigrav-Maschine auf Grundlage des Gravomagnetismus zum Patent angemeldet. Nur konnte sie damals niemand bauen. Vielleicht wird sich das bald ändern, denn wenn das österreichische Teams Recht behält, könnte einige in der Science Fiction beschriebene Technologien Wirklichkeit werden.

Allerdings dürfte ein realer Antigrav auf Grundlage des Gravitomagnetismus, also ein Kraftfeld, das die Schwerkraft aufhebt, weniger eindrucksvoll sein, als viele seiner Gegenstücke in der SF. Selbst naturwissenschaftlich-technisch orientierte Science-Fiction-Autoren neigen dazu, einfach einen benötigten psysikalischen Effekt aus dem Handgelenk zu schütteln, wenn es die Handlung erfordert. Einige aus der SF bekannte Antigravs widersprechen zum Beispiel dem Energieerhaltungssatz und würden ein Pepetum Mobile ermöglichen. Z. B. so: mittels eines Antigrav-Generators wird ein großes Gewicht "negativ schwer" gemacht und schwebt wie ein Ballon in die Höhe. Dort angekommen, wird der Antigrav abgestellt und das Gewicht fällt zu Boden. Dabei verrichtet er Arbeit. Wenn der Antigrav zum Schweben nicht mehr Energie aufnimmt, als beim Fallen freigesetzt wird, wäre er ein Perpetuum Mobile erster Art. wikipedia: Perpetuum Mobile. Also dürfte ein Antigrav-Gleiter in energetischer Hinsicht keine Vorteile gegenüber z. B. Hubschraubern bieten. Gravitation ist eine sehr schwache Kraft, weshalb die Anwendungsmöglichkeiten eines realen Traktorstrahls im Vergleich zu eine simplen Seilwinde gering sein dürften - der Traktorstrahl wird wahrscheinlich Nischenanwendungen vorbehalten bleiben, bei denen man nicht auf die bewährte Drahtseil Low Tech zurückgreifen kann. Aus dem selben Grund ist die Leistungsfähigkeit eines "Gravitationsantriebs" gegenüber einer Rakete sehr begrenzt.
Dennoch würde die Gravitationskontrolle die Raumfahrt revolutionieren. Zum Beispiel durch die Erzeugung künstlicher Schwerkraft oder durch die auf die Besatzung wirkende Beschleunigungskräfte entgegen wirkende Andruck-Kompensatoren. Selbst bei unbemannten Raumschiffen wäre das nutzlich, wenn sie stoßempfindliche Instrumente, z. B. Teleskope, an Bord haben.
Auch Landemannöver würden mit Antigravunterstützung einfacher werden.

Nachtrag: Darstellung der Arbeit Dr. Martin Tajmars in populärwissenschaftlicher Form. Tajmars zeigt sich darin als Enthusiast, was die Möglichkeiten der Gravitationskontrolle angeht, aber skeptisch hinsichtlich angeblich erfolgreicher Antigrav-Experimente: Schwerelos auf der Erde
Website des ARC: Austrian Research Center.
Beischreibung des Experiments auf der ESA Website (auf englisch, Stand vom März 2006):Towards a new test of general relativity?
Beschreibung des Experiments von Dr. Tajmar (pdf):Experimental Detection of the Gravitomagnetic London Moment

Samstag, 28. Oktober 2006

Das kurze Gedächtnis des Wassers

Hat das Wasser ein "Gedachtnis"?
Und wenn es eines hat - würde das Bedeuten, dass am "informierten Wasser" etwas dran ist? Könnte dieses Gedächtnis sogar erklären, wie Homöopathie funktioniert? (Wenn sie überhaupt über den Placeboeffekt hinaus funktionieren sollte.)
Begehbare Buhne in der Brandung
Foto: mar

Zwei sehr verschiedene Fragenstellungen, die aber trotzdem meistens zusammengedacht werden. So sehr zusammengedacht, dass naturwissenschaftlich argumentierende "Skeptiker" dabei buchstäblich aufs naturwissenschaftliche Glatteis geraten:
(...) 3. Wasser hat keine definierte Struktur, kein „Gedächtnis“ und kann keine „Information“ übertragen. (Stichworte: „belebtes“, „levitiertes“, „informiertes“ Wasser…) (...)
(aus der: Checkliste zur Identifikation von unseriösen technischen Verfahren und Produkten. Institut für Umwelt- und Verfahrenstechnik, Hochschule für Technik Rapperswil , April 2006)

Prolematisch an dieser gut gemeinten Warnung ist weniger, dass hinter "belebtes", "levitiertes" und "informiertes" Wasser durchaus unterschiedliche Vorstellungen stecken, auch wenn diese Begriffe von einigen Eso-Autoren und von Herstellern skuriler (und meist skuril überteuerter) Wundergeräte munter durcheinander gewürfelt werden.
Wasser hat sehr wohl eine Struktur - und zwar eine Struktur, die die Ursache zahlreicher Wasseranomalien ist. Wasser ist unter den Flüssigkeiten einzigartig: seine Oberflächenspannung ist so groß, dass selbst über 100 m hohe Baumriesen ohne Pumpmechanismen die obersten Nadeln ihrer Krone mit Wasser versorgen können. Im Winter friert Süßwasser zu Eis, das leichter ist als kaltes Wasser - die meisten Stoffe sind im festen Aggregatzustand dichter und damit schwerer als als Flüssigkeit. Wassermoleküle bilden unter einander schwache Bindungen, die ständig brechen, um sich anschließend neu zu bilden: ein fluktuierendes Netz aus Wassermolekülen. Wasser dient als Medium für die wichtigsten biologischen Vorgänge in allen Lebewesen: Eiweiße sind die Bauteile und "Maschinen" unserer Zellen. Sie sind lange Ketten, die in komplizierter Weise auf nur eine Art gefaltet sein können, um richtig zu funktionieren. Diese Faltung funktioniert nur in wässriger Umgebung auf die richtige Art und Weise. Auch die wendeltreppenartige Doppelhelix-Struktur unseres Erbgutes kann nur in wässriger Umgebung ihre natürliche Form annehmen. Ohne die besondere Struktur des Wassers gäbe es kein Leben!
Allerdings sind die Strukturen des Wasser nur für kurze Zeit "fest", jedenfalls im flüssigen Zustand. Für die Frage nach dem "Gedächtnis des Wasser" bedeutet das: ist mit diesen Strukturen tätsächlich ein molekulares Gedächtnis verbunden? Und wenn ja, wie beständig ist dieses Gedächtnis?
Ein "Kurzzeitgedächtnis" des Wassers gibt es wirklich, und zwar in dem Sinne, dass es einen Zusammenhang zwischen der Wasserstruktur zu einem bestimmten Zeitpunkt und der zu einem füheren Zeitpunkt gibt. Es ist ein Kurzzeitgedächtnis, weil Wasserstrukturen, die vor langer Zeit existierten, keinen Einfluß mehr haben. Ein sehr kurzes Gedächtnis.
Wasser
Foto: PixelQuelle

Die Fluktuationen in der Struktur des Wassers laufen nämlich unvorstellbar schnell ab. Sie können innerhalb einiger Femtosekunden, das heißt einiger Millionstel einer Milliardelster Sekunde ablaufen!
Innerhalb eines Wassermoleküls dauert die Periode der so genannten Streckschwingung, bei der die Wasserstoffatome weg von Sauerstoff und wieder zurück schwingen, nur zehn Femtosekunden. Ganze Wassermoleküle brauchen nur einige hundert Femtosekunden, um ihre Lage deutlich zu verändern.
Der Physiker Dr. Nils Huse mißt mit extrem kurzen Laser-Lichtblitzen, wie sich die Struktur des Wassers innerhalb dieser unvorstellbar kurzen Zeiträume verändert. Er beschreibt sein Verfahren so:
Nun hängt die Frequenz der Streckschwingungen eines Wassermoleküls ehr empfindlich von dessen Umgebung ab. Ändert sich die Umgebung eines Wassermoleküls. so ändert sich auch die Frequenz seiner Streckschwingung. Und genau dieser Zusammenhang kann in Verbindung mit extrem kurzen Lichtblitzen genutz werden: Die Streckschwingungen eines Wassermoleküls lässt sich zu einem bestimmten Zeitpunkt mit einem Lichtblitz anregen, wenn die Frequenz des Lichts der Schwingungsfrequenz eines Wassermoleküls entspricht. Fragt man die Frequenz des gleichen Wassermoleküls mit einem zweiten Lichtblitz ab, wird deutlich. ob sich die Frequenz und damit die Umgebung des angeregten Wassermoleküls geändert hat. Dabei wird das Licht gemessen, das von der Wasserprobe ausgesand wird.
Diese Methode eignet sich auch zur Untersuchung des strukturellen Gedächtnisses des Wassers:
Möchte man das Gedächtnis des Wassers bestimmen, das es für seine frühere Struktur hat, kann der Zusammenhang zwischen Schwingungsfrequenzen eines Wassermoleküls und seiner Umgebung ausgenutzt werden. Dazu muß man wissen, dass die Streckschwingungen des Wassers sich immer innerhalb eines bestimmten Frequenzbereichs befinden. Schwach mit ihrer Umgebung verbundene Wassermoleküle schwingen etwas schneller als solche, die stark mit ihrer Umgebung verbunden sind. Regt man nun auf die eine oder andere Art und Weise gebundene Wassermoleküle mit einem kurzen Femtosekunden-Lichtblitz an und fragt sogleich mit einem zweiten ebenso kurzen Lichtblitz die Schwingungsfrequenz der Moleküle ab, wird diese sich nicht verändert haben, weil keine Zeit verstrichen ist, in der die Umgebung der angeregten Moleküle sich hätte verändern können. Wartet man länger, bevor der zweite Lichtblitz die Schwingungsfrequenz abfragt, wird bei "Gedächtnisverlust" jede Schwingungfrequenz gleich wahrscheinlich auftreten - es gibt dann keine Zusammenhang zwischen der Schwingungfrequenz der Vergangenheit (dem Zeitpunkt der Anregung durch den erste Lichtblitz) und der Gegenwart (dem Zeitpunkt der Abfrage durch den zweiten Lichtblitz).
Die Ergebnisse der Messungen, die Dr. Huse und sein Team vorgenommen haben, dürften für die Vertreter der Hypothese vom "informierten Wasser" ernüchternd sein:
Erstaunlicherweise zeigte sich nun, dass der Zusammenhang zwischen Schwingungsfrequenzen der Wassermoleküle innerhalb von nur 50 Femtosekunden verloren geht. Wassermoleküle verlieren also ihr Gedächtnis für ihre vorherige Umgebung unglaublich schnell - viel schneller, als zuvor angenommen wurde. Dieses Ergebnis schließt auch manches Erklärungsmodell für den Wirkungsmechanismus homöophatischer Medizin aus. In solchen Modellen beahlten Wassermoleküle über Tage und Wochen eine Struktur, die dem Negativ eines homöopathischen Wirkstoffs entspricht und dadürch ähnlich wie der Wirkstoff selbst heilt.
Quelle: Aufsatz von Dr. Nils Huse in: bild der wissenschaft plus (Beilage zur bdw, Heft 11 2006, Konradin Medien GmbH)
Hierzu auch: Lise-Meitner-Preis für MBI-Forscher

eingeforen
Foto: PixelQuelle
Ob es daneben auch ein "Langzeitgedächtnis" des Wasser gibt, das dann als Erklärungsmodell für Homöophatie und "informiertes Wasser" taugen könnte, bleibt weiterhin reine Spekulation. Die dafür herangezogen Wassermolekül-Cluster - sozusagen "kristalline Bereiche" innerhalb des flüssigen Wasser - gibt es zwar, sie sind aber wegen der extremen Geschwindigkeit, in der die Bindungen innerhalb es solchen Clusters fluktuieren, wohl als halbweg beständiger Informationsträger unbrauchbar.
Wie auch immer: selbst wenn es ein hypothetisches Langzeit-Wassergedächtnis auf der Basis von molekularen Clustern oder - anderes Modell - aufgrund langanhaltende Schwingungszustände innerhalb des Wasser - gäbe, ergäben sich aus diesen Modellen Schlußfolgerungen, die für "Wundergeräteverkäufer" und einige Modelle der Homöophatie äußerst unangenehm wären: Das "Gedächtnis" des Wasser würde schon durch heftige Turbulenzen, etwa durch Umrühren mit einem Mixer, "gelöscht" werden. Homöophatische Medikamente wären empfindlich gegen Erschütterungen - was in der Praxis nie bemerkt worden ist. Allerdings würde ein abenteuerlich teuerer (bis zu 200 Euro), auf den Wasserhahn aufzusteckender "Wasserverwirbler", der "Ihr Trinkwasser von schädlichen Informationen befreit" tatsächlich funktionieren - und zwar so effektiv, wie es ein sog. Perulator aus dem Baumarkt für weniger als 10 Euro auch schafft.

Freitag, 20. Oktober 2006

Autonome Kommune lebt von Kernkraft

Im Formulieren neugierig machender Titelzeilen für (angeblich) trockene Wissenschaftsartikel sind die Redakteure von wissenschaft.de einsame Spitze.

Wissenschaft.de: Ungewöhnlich: Autonome Kommune lebt von Kernkraft
Ein internationales Forscherteam entdeckte unter der südafrikanischen Savanne eine isolierte Bakteriengemeinschaft in Felsgestein, die ihre Energie indirekt aus radioaktiver Strahlung bezieht. Die Mikroben sind völlig abgeschnitten von der Außenwelt und beziehen ihre Energie nicht aus Sonnenlicht, sondern ausschließlich aus anorganischen Stoffen, die durch die natürliche radioaktive Bestrahlung von Wasser und Mineralien entstehen. Entdeckt wurde das Bakterienkollektiv in Wasserproben aus 2,7 Milliarden Jahre altem Basaltgestein in der Nähe von Johannesburg.

Die zur "Ernährung" benötigten Stoffe, also Wasserstoff und Sulfate, entstehen mithilfe radioaktiver Strahlung von mineralischem Uran im tiefen Gestein. Durch die energiereiche Strahlung wird Wasser in Sauerstoff und Wasserstoff aufgespaltet, gleichermaßen entsteht Sulfat aus schwefelhaltigen Mineralien.
Die autarke Bakterienpopulation existiert tiefer unter der Oberfläche als alle anderen bekannten Mikrobengemeinschaften, und ihre Entdeckung lässt neue Mutmaßungen über mögliches Leben unter der Oberfläche anderer Planeten zu.

Dienstag, 10. Oktober 2006

Das Ende eines Verkehrsmittels?

Schon bald nach dem tragischen Unglück auf der Transrapid-Erprobungsstrecke im Emsland hieß es, nach dem 22. September 2006 wäre die Magnetschwebebahn am Ende. Parallelen zum Absturz des Zeppelin "Hindenburg" 6. Mai 1937, der angeblich das Ende der Luftschiffe bedeutete, und zum Concorde-Unglück am 25. Juli 2000 wurden gezogen.
Mit einigem Abstand zu Katastrophe wage ich die Antwort: ob der Transrapid eine Zukunft hat oder nicht hängt nicht von diesem schweren Unfall ab.

Nach dem katastrophalen ICE-Unfall in Eschede war von einem Ausstieg aus der "Risikotechnologie Hochgeschwindigkeitszug" keine Rede. Ebensowenig waren nach dem Untergang der "Estonia" Stimmen zu hören, die zum Verschrotten aller Fährschiffe aufforderten - obwohl sie als sog. Roll-On / Roll-Off-Schiffe tatsächlich ein erhöhtes Unfallrisiko gegenüber konventionellen Schiffe ohne Heck- oder Bugtore und mit durch wasserdichte Schotten unterteiltem Laderaum haben. Weiter zurück in der Geschichte führte der Untergang der "Titanic" zur verschärften Sicherheitsvorschriften, aber nicht zum Ende des Baues großer, schneller Passagierschiffe.
Ich bin der Ansicht, dass Verkehrsmittel nur dann aussterben, wenn sie keinen wirtschaftlichen oder anderwertigen realen Nutzen haben.

Dabei sollte man zwischen einer "Basistechnologie" (etwa der Eisenbahn) und den jeweiligen technischen Lösungen (etwa Dampflok, E-Lok, Diesellok) unterscheiden. Technische (Problem-)Lösungen werden, wenn es zeitgemäßere Lösungen gibt, ohne Weiteres aufgegeben, das liegt in der Natur des technischen, ökonomischen und gesellschaftlichen Wandels. Rein ideeller Nutzen verhindert nicht das Verschwinden einer bestimmten Verkehrstechnik aus dem Alltag, sichert aber immerhin fast immer einen "Museumsgebrauch". (Beispiel: Dampflok.)
Tatsächlich ist es so, dass bisher kein Verkehrsmittel, im Sinne einer Basistechnologie, das sich einst etabliert hatte, jemals völlig aufgegeben wurde. Weder die Pferdekutsche noch das Segelschiff noch der Hundeschlitten sind "ausgestorben" oder nur noch in Museen zu finden.
Allerdings ist es fraglich, ob der Transrapid, der ja eine mit anderen Verkehrssystemen inkompatible Technologie ist, wirklich als "etabliert" gelten kann.

Der Transrapid - eine Lösung auf der Suche nach dem passenden Problem
Transrapid
Bildquelle: PixelQuelle

Als 1970 die Entwicklung der Magnetschwebebahn begann (und die öffentliche Forschungs- und Entwicklungsförderung einsetzte) und noch 1978, als das Konsortium "Magnetbahn Transrapid" gegründet wurde, war viel von der "Geschwindigkeitslücke" zwischen der Bahn und dem Flugzeug die Rede. Als Zielgruppe visierte man Geschäftsreisende an, die noch am selben Tag von ihren Terminen zurückkehren wollten. Heute ist diese Geschwindigkeitslücke dank schnellerer Züge sehr viel kleiner geworden. Außerdem war die Größe der Zielgruppe der eligen Geschäftsreisenden von anfang an gelinde gesagt sehr optimistisch geschätzt. Überoptimistische Schätzungen ziehen sich durch die gesamte Geschichte des Transrapides. So legte das Konsortium "Magnetbahn Transrapid" für die geplante Strecke Hamburg-Berlin Fahrgastzahlen zugrunde, die fünf mal höher sind, als die der heutigen ICE-Verbindung, bei Fahrpreisen, die ein Drittel höher gewesen wären, als die Fahrkarte 1. Klasse im ICE. (Ein Vergleich der Zahlen legt den Verdacht nahe, dass das Konsortium einfach den gesamten Personenverkehr - PKW, Bahn, Bus, Flugzeug - zwischen Hamburg und Berlin planerisch auf die Magnetbahn verlegt hätte.)
Die Entwicklung des Transrapid erfolgte nahezu ausschließlich mit öffentlichen Mitteln. Bis zum Jahr 2000 flossen ca. 1,2 Milliarden Euro Steuergelder in die Entwicklung des Transrapid. Das schafft natürlich öffentlichen Druck, die so teuer bezahlte Magnetbahn auch in Deutschland zu realisieren. Aber: bisher sind alle Projekte, von der Strecke Hamburg-Berlin bis zum "Metrorapid" im Ruhrgebiet schon in der Planungsphase gescheitert, und zwar stets aus wirtschaftlichen Gründen. Diese Gründe sind systembedingt: auf kurzen Strecken kann der Transrapid seine hohe Geschwindigkeit - über 500 km/h - kaum ausspielen. Z. B. stünde im Fall der geplanten Transrapid-Strecke zwischen München-Haupbahnhof und dem Flughafen der Zeitgewinn gegenüber einer Express-S-Bahn der Zeitgewinn (10 min Fahrzeit im Transrapid gegenüber 20 min in der Schnellbahn) in keinen Verhältnis zu den erheblich höheren Bau- und Betriebskosten. Die Strecke könnte wohl, ähnlich wie 30 km lange Strecke in Shanghai, nur als dauersubventionierte "Vorzeigebahn" betrieben werden. Auf langen Strecken könnte der Transrapid hingegen vermutlich wirtschaftlich betrieben werden - etwa als Verbindung zweier Ballungsräume, zwischen denen es noch keine modernen Schienenverbindungen gibt, bei gleichzeitig stark angestiegenen Flugpreisen. Allerdings sind in Deutschland diese Bedingungen nirgendwo gegeben - im Gegensatz zu China. Wo auch die Bereitschaft größer sein düfte, ein Projekt allein wegen seines Prestigewertes durchzuziehen.
Die Suche nach dem passenden Verkehrproblem für den Transrapid führte zu zahlreichen Machbarkeitsstudien, und alle Machbarkeitsstudien führten zum Ergebnis: zu teuer fürs Geleistete und nicht vernünftig ins vorhandene Eisenbahnnetz zu integrieren. Die Alternative, die vorhandene Eisenbahn zu modernisieren und zu erweitern, führte zu einer sehr viel günstigeren Relation aus Preis und Leistung.
Hierzu, in auf FAZ.net: Der wahre Fluch des Transrapid
So lange sich an den wirtschaftlichen Rahmenbedingungen nichts ändert, hat der Transrapid keine Zukunft. Egal, wie sicher er ist.

Ín den Fällen "Zeppelin" und "Concorde" waren die schweren Unfälle nur die letzten Sargnägel zweien Verkehrstechnologien ohne wirtschaftliche Zukunft. Obwohl die "Hindenburg" in den 1930er Jahren profitabel fuhr, war schon damals abzusehen, dass Verkehrsluftschiffe keine Chance gegenüber den viel schnelleren Langstreckenflugzeugen hätten. Der Abschied vom "Zeppelin" fiel deshalb den beiden einzigen Nationen, die 1937 noch große Luftschiffe hatten, Deutschland und den USA, leicht. Daran änderte auch die Tatsache nichts, dass ein Unfall wie der der "Hindenburg" mit heliumgefüllten Luftschiffen gar nicht vorkommen kann.
Das Luftschiff überlebte als "Nischentechnologie" - auch der Zeppelin NT zielt eindeutig nicht in Richtung Massenverkehrsmittel.

Die Concorde war in gut 25 Betriebsjahren niemals wirklich wirtschaftlich, Air France und British Airways konnten sich den Betrieb nur deshalb leisten, weil sie die tatsächlichen Kosten für Anschaffung und Ersatzteile nicht tragen mußten - also dank Subventionen. Nach dem Unfall war das Image der Concorde, nicht nur sehr schnell, sondern auch sehr sicher zu sein, dahin, obwohl Ermittlungen ergaben, dass ein ähnlicher Schaden an einem anderen Verkehrsflugzeug ebenfalls zum selben katastrophalen Ausgang geführt hätte. Wichtig für die Einstelllung des Flugbetriebs war auch, dass der Ersatzteilehersteller EADS die Preise für die Ersatzteile den tatsächlichen Kosten anpassen wollte.

Der Space Shuttle blieb trotz zweier schwerer Unfälle und seiner Unwirtschaftlichkeit in Betrieb, weil es keine Alternative zu ihm gab, wenn die USA nicht völlig aus der bemannten Raumfahrt aussteigen wollte.

Freitag, 29. September 2006

Weltraumreisen zu Mini-Preisen

Einer Studentengruppe in Cambridge gelang ein erster Pilotversuch für einen unbemannten Billigflug ins All. Bei dem Fluggerät handelt es sich um eine Kombination aus Heliumballon und Rakete - der Ballon trägt die Nutzlast in 23 Kilometer Höhe, wo die Rakete zündet. Strenggenommen handelt es sich zwar um eine Höhenforschungsrakete, da keine Erdumlaufbahn erreicht wird, aber 1.500 Euro Kosten sind selbst für einen Suborbitalflug geradezu außerirdisch billig.

Mehr auf wissenschaft.de: Für 1.500 Euro in den Weltraum

Sonntag, 27. August 2006

Science Fiction oder Realiltät?

Über die PRTF-Mailingliste erfuhr ich, dass in der "Aviation Week" (einer seriösen Flugzeugbau-Fachzeitschrift) ein Artikel über einen Flugzeugentwickler steht. Das ist an sich nicht Besonderes, allerdings unterscheidet sich die Website der STAVATTI inc." doch erheblich von der eines "normalen" Flugzeugbauers. Die Entwürfe sehen aus wie aus einem gut gemachten SciFi-Film oder -Computerspiel. Dazu paßt eine Unternehmensphilospie, die aus einem SF-Roman der 40er Jahre stammen könnte - etwa von Doc E. E. Smith und Edmond Hamilton, beraten von A. E. van Vogt und Robert A. Heinlein. Wobei - so super-patriotisch gaben sich die besagten Schreiber normalerweise nicht.

Ich glaube nicht, dass man die Firma wirklich ernst nehmen kann, und auch nicht, dass die coolen Entwürfe wirklich flugfähig wären. Allerdings gibt mir zu denken, dass diese bizarren Entwickler bizarrer Flugzeuge offensichtlich doch zumindest von Einigen ernst genommen werden -und sei es wegen ihrer genau auf das Weltbild US-amerikanischer "Superfalken" abgestimmten vollmündigen Versprechungen.

Sonntag, 16. Juli 2006

Gedanken werden töten können

Sie ist ein beliebter Bestandteil vieler Science-Fiction Stories: die Steuerung von Fahrzeugen und Anlagen mittels bloßer Gedanken; die direkte Verbindung zwischen Mensch und Maschine. Ansätze dergleichen zu realisieren gibt es schon länger, und sie zeigen anwendbare Ergebnisse: Den Computer durch Gedanken steuern US-Forschern ist es gelungen, behinderten Menschen die Möglichkeit zu geben, einen Rechner mit Gedanken zu steuern. Langfristig sollen die Gelähmten damit wieder gehen und zugreifen können.
Der entscheidende Nachteil für Anwendungen, die über die Hilfe für schwerst Gelähmte hinausgeht: Es muß eine Hirn-Sonde implantiert werden. Für eine Fahrzeugsteuerung oder ein direktes Gehirn-Computer-Interface ist so eine "Schädelbuchse" eher von Nachteil. Hier wäre ein System, dass aus einem Helm, einem aufsetzbaren Netz oder einer Haube bestehen würde und ohne Implantate auskommt, von Vorteil. Ein Schritt in diese Richtung ist das Projekt Berlin Brain-Computer Interface an der Charite mit oberflächlich angebrachten Elektroden statt eines implantiertes Chips. Es hat allerdings den Nachteil, weniger zielgenau als ein Neuro-Implantat zu sein:Gelähmter steuert Geräte mit Gedanken.)
Wie ich aus der aktuellen Ausgabe der "bild der wissenschaft", Heft 8/2006 erfuhr, scheint auch ein völlig "unblutiges" Hirn-Interface technisch machbar zu sein.
Japanische Wissenschaftler von den ATR Computational Neurocience Laboratories in Kyoto haben eine Roboterhand, die durch Gedanken bewegt wird, entwickelt. Dazu mussten zunächst Propanden im Magnetresonanz-Tomographen bestimmte Handbewegungen ausführen. Die dabei gemessenen Gehirnaktivitäten rechnete ein Computer so um, dass die Kunsthand die Bewegungen genau nachahmte.
Ein MRT ist immer noch ein recht unhandliches Gerät, allerdings ist schon jetzt absehbar, dass es in einigen Jahren auf die Ausmaße einer Trockenhaube geschrumpft sein wird - damit wird die SERT-Haube zur Raumschiffsteuerung aus "Perry Rhodan" einige Jahrhunderte eher als beschrieben technisch möglich geworden sein.

Bei aller Begeisterung über die zahlreichen segensreichen Anwendungsmöglichkeiten der "Gedankensteuerung": die meisten dieser Projekte werden von der Rüstungsindustrie vorangetrieben, das Ziel ist eine reaktionschnellere Steuerung von Kampfflugzeugen.

Es heißt immer noch: "Wenn Gedanken töten könnten". Sie werden es können!

Freitag, 26. Mai 2006

Worauf man nicht hineinfallen sollte

Wieder was aus meiner beliebten Reihe "was jeder weiß, stimmt garantiert nicht". In der aktuellen Ausgabe der bild der wissenschaft (6/2006) gibt es einen aufschlußreichen Artikel darüber, wie Lügner sich wirklich verraten. Nicht etwa dadurch, dass sie Blicken ausweichen oder die Hand vor den Mund halten.
Deutet darauf hin, dass jemand lügt
1. erweiterte Pupillen
2. Abschweifungen
3. unsichere Formulierungen und wackelige Stimme
4. Nervosität
5. angespannte Stimme
6. erhobenes Kinn
7. hohe Stimme
8. negative Aussagen und Klagen
(Anmerkung: aus dem Artikel ergibt sich, dass die Punkte 2. "Abschweifungen" und 8. "negative Aussagen und Klagen" die wohl besten Indizien für Lügen sein dürften.)

Sagt nichts darüber aus, ob jemand lügt oder nicht
1. "Ahs" und ähnliche Pausenfüller
2. Zögern vor einer Antwort
3. Vermeiden von Blickkontakt
4. schnelles Sprechen
5. Berühren von Gesicht und Haar
6. gehobene oder gesenkte Augenbrauen
7. schneller Lidschlag
8. geschlossene Augen

Deutet darauf hin, dass jemand die Wahrheit sagt
1. koorperatives Verhalten
2. Einräumen von Gedächtnislücken
3. hoher Anteil an Gesprächszeit
4. unmittelbare Darstellung
5. detailreiche Beschreibung
6. spontane Selbstberichtigung
7. logische Aussagen
8. plausibler Bericht
Interessant ist, dass die meisten Menschen Lügen am besten erkennen, wenn sie eine Aussage lediglich lesen. Die Trefferquote sinkt, wenn sie zusätzlich auf einem Video sehen, wie die Verdächtigen beim Reden agieren. Mimik und Handbewegungen trügen nach Ansicht des Psychologen Albert Vrij allerdings nicht, sie werden meist nur falsch interpretiert.
Ich vermute außerdem, dass protokollierte Lügen schneller auffliegen, weil in der Schriftform Widersprüche, Lücken und Abschweifungen leicht ins Auge fallen - und die üblichen schauspielerischen Tricks, die gute Verkäufer und viele schlechte Politiker benutzen, nichts fruchten.
(Das macht die Redensart: "Er lügt wie gedruckt" nicht ungültig. Weshalb, kann man z. B. hier nachlesen: BILDblog. )

User Status

Du bist nicht angemeldet.

Aktuelle Beiträge

Geheimauftrag MARIA STUART...
Krisenfall Meuterei Der dritte Roman der Reihe "Geheimauftrag...
MMarheinecke - 9. Apr, 19:42
Urlaubs-... Bräune
Das "Coppertone Girl", Symbol der Sonnenkosmetik-Marke...
MMarheinecke - 1. Aug, 08:34
Geheimauftrag MARIA STUART...
Ahoi, gerade frisch mit dem Postschiff eingetoffen. Der...
MMarheinecke - 26. Mär, 06:48
Kleine Korrektur. Man...
Kleine Korrektur. Man kann/sollte versuchen die Brille...
creezy - 11. Nov, 11:29
strukturell antisemitisch
Inhaltlich stimme ich Deinem Text zwar zu, aber den...
dummerle - 5. Jun, 11:12

Suche

 

Status

Online seit 7082 Tagen
Zuletzt aktualisiert: 24. Jul, 02:01

Credits


doof-aber-gut
Gedankenfutter
Geschichte
Geschichte der Technik
Hartz IV
Kulturelles
Medien, Lobby & PR
Medizin
Persönliches
Politisches
Religion, Magie, Mythen
Überwachungsgesellschaft
Umwelt
Wirtschaft
Wissenschaft & Technik
Profil
Abmelden
Weblog abonnieren
development