Autor Thema: Künstliche Intelligenz ...  (Gelesen 2544 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Künstliche Intelligenz ...
« am: 25 Dezember, 2005, 11:34 »
Europäische Forscher bauen einen verspielten Maschinenzwerg, der die Welt wie ein Kind auf allen Vieren erkundet. Könnte sich in dem Wesen einst ein Funke von Verstand regen?

Rührend, das Kerlchen. Und wenn es dann erst zu krabbeln beginnt! Die Hersteller werden entzückt sein. Mögen auch die Gelenke ein wenig knirschen, die Motoren ein wenig surren - es ist doch fast ein richtiges Baby.

Etwa 90 Zentimeter misst der Wichtel aus Metall, gut 23 Kilogramm ist er schwer, und seine Gestalt ähnelt einem Kleinkind von zwei Jahren. Er kann zwar nicht laufen, aber er bewegt sich flink auf allen Vieren, und keine Gummiente ist vor seiner Neugier sicher. Bald geht der wundersam verspielte Humanoide in Bau; im Jahr 2007 soll er fertig sein. Für die Gemeinde der Roboterforscher wird es ein denkwürdiges Datum sein: die Geburt des ersten kompletten Kunstkindes.

Elf europäische Forschungszentren haben sich dafür zusammengetan, dazu zwei in den USA und drei in Japan. Das Geschöpf, das sie in die Welt setzen wollen, soll heranwachsen wie ein kleiner Mensch. Sein gesamtes Dasein wird von Anfang an protokolliert: wie der Roboter über den Boden rutscht, wie er emsig bunte Klötzchen bepatscht. Und wie er sich zum ersten Mal die Kniemechanik aufschlägt.

Stets messen die Forscher, was in den Speicherbausteinen des Roboters vor sich geht. Hin und wieder basteln sie an der Software. Und dann heißt es geduldig sein: Macht der Zögling Fortschritte? Wird sich am Ende gar eine Art Intelligenz in seinem Köpfchen regen?

Auf fünf Jahre ist das Projekt angelegt; die EU fördert es mit 8,5 Millionen Euro. Das erste Jahr ist bereits um, und die Pläne für den Körper der Kindchenmaschine - vorläufiger Name: "Robotcub", zu deutsch etwa Roboterjunges - sind so gut wie fertig. Es dauerte eine Weile, denn hierbei kommt es auf jedes Detail an. Der Kleine soll schließlich im Stande sein, aus dem Sitz behände loszukrabbeln, seine Spielsachen zu ergreifen, in den Händen zu drehen und gelegentlich auch durch die Gegend zu werfen.

Sensoren in den feingliedrigen Fingern verleihen dem rührigen Zwerg eine Art Tastsinn; er hat Temperaturfühler und kann sein Gleichgewicht halten. Derart gerüstet, erforscht der Roboter seine kleine Welt; er muss allein sehen, wie er darin zurechtkommt - alle Risiken inbegriffen: Die Mechanik ist so ausgelegt, dass sie auch Stöße und Stürze verkraftet.

Das Projekt entsprang der`Überzeugung, dass sich so etwas wie Verstand nicht von außen, als fertiges Programm, einhauchen lässt. "Intelligenz kann nur entstehen, wo handelnde Wesen auf ihre Umwelt einwirken", sagt der Roboterforscher Giulio Sandini von der Universität von Genua, der das Vorhaben koordiniert. Sein Leitspruch: "Intelligenz braucht einen Körper."

Der Kopf des Kindchenroboters, so der Plan, ist deshalb anfangs so gut wie leer. Eingebaut ist nur eine Grundausstattung: Neugier auf alles, was sich bewegt, und ein paar Reflexe. Drückt man dem Robotcub etwas in die Hand, greift er zu. "Das könnte zum Beispiel ein Hammer sein", sagt Rolf Pfeifer vom Labor für Künstliche Intelligenz an der Uni Zürich, das an dem Konsortium beteiligt ist. "Dann muss der Roboter herausfinden, wie er das Teil am besten anpackt. Und was er damit alles anfangen kann."

So lernt der Kleine allmählich durch seine Aktionen. Ob daraus je ein Funken Intelligenz entspringt, ist ungewiss. Auf die hergebrachte Weise aber geht es bestimmt nicht; da sind sich die meisten Forscher heute einig: Roboter mit vorgefertigter Software stellen sich im Durcheinander des Lebens viel zu hölzern an. Selbst das Erkennen schlichter Objekte überfordert häufig ihre Prozessoren. Kaum wechselt die Beleuchtung, sind sie schon verwirrt.

"Ein Roboter, der Erfahrungen mit dem Greifen hat, dürfte sich dagegen mit dem Sehen sehr viel leichter tun", meint Pfeifer. Mit dem Robotcub will er herausfinden, ob diese Vermutung stimmt.

Bislang versuchten die Robotiker vor allem, einzelne Körperteile intelligenter zu machen: Sie konstruierten mechanische Arme, die die Kunst des Greifens ergründen, und Zweibeiner ohne Rumpf für das naturnahe Laufen mit möglichst wenig Steuerungsaufwand.

Für die höheren Funktionen gibt es am amerikanischen MIT den Koboldkopf Kismet, den berühmtesten Vorläufer des Robotcub. Kismet lernt im Umgang mit Menschen die Anfänge eines Sozialverhaltens: Gesichter erkennen, Gesten deuten, Stimmungen aus dem Tonfall heraushören. Der Roboter antwortet mit passender Mimik und Säuglingsgebrabbel. Seine Tage verbringt Kismet allerdings festgeschraubt auf einem Podest; er kann den Kopf drehen und seine Glubschaugen rollen.

Der mobile Robotcub dagegen, so hoffen die Forscher um den Genuesen Sandini, spielt im Glücksfall bald die Vorzüge eines wendigen Ganzkörpers aus: Er ist im Stande, das ganze Labor unsicher zu machen; so sollte er sich ungleich vitalere Erfahrungen verschaffen.

Verglichen mit einem Kind ist solch eine krabbelnde Rechenmaschine jedoch immer noch überaus brav. Es ist nicht zu befürchten, dass sie auch nur anfängt, aus eigenem Antrieb Schubladen auszuräumen. Sie wird auch nicht vor Hunger rebellisch.

Allenfalls messen Roboter gleichmütig den Ladestand ihrer Akkus. Verzweiflung ist ihnen fremd. Vielleicht entdecken sie dafür andere, ebenso exklusive Zustände in sich. Manche Forscher überlegen, ob eine Maschine Sehnsucht nach einer Steckdose entwickeln könnte, wenn die Energie nachlässt. "Wir werden nie wissen", sagt Pfeifer, "was für ein Gefühl es ist, an einer Ladestation zu hängen."

Das Roboterkind bekommt wohl zunächst, als Ersatz für dringende Bedürfnisse, ein Bewertungssystem einprogrammiert. Das ist eine Art Katalog, in dem der Kleine nachschlägt, was gut für ihn ist und was schlecht.

Gut könnte es etwa sein, ein Objekt mit möglichst vielen Sinnen zugleich zu erkunden: den Hammer sehen und zugleich betasten. Dann noch ein tüchtiger Schlag auf den Tisch, und auch das Gehör bekommt wertvollen Input - förderlich fürs Köpfchen. "Das Zusammenspiel mehrerer Sinneskanäle", sagt Pfeifer, "ist die Grundlage des Lernens."

Ähnliche Erfahrungen blühen einem Roboter namens Kurt 3D in St. Augustin bei Bonn. Das Fraunhofer-Institut für Autonome Intelligente Systeme richtet ihm dort gerade ein Spielzimmer ein. Kurt, ein kompaktes Rollwägelchen mit einem Magnetarm, wird darin die Natur der Dinge studieren.

Es gibt große und kleine Dosen, dazu allerhand Rampen und Schwellen. Wenn der Roboter lang genug spielt, kann er einiges über sein kleines Reich erfahren - etwa dass es eine Klasse von Dingen gibt, die er anheben kann: Sie sind magnetisch, nicht zu schwer und haben eine ebene Oberfläche zum Andocken des Arms.

Projektleiter Erich Rome hofft, dass der kleine Kurt mit der Zeit aus seinen Erfahrungen auch mal was macht. Zu den Dingen, die er lernen soll, gehört es beispielsweise, eine Tür zu öffnen, indem er eine Dose auf einen Druckschalter stellt. Wenn Kurt das kann, sagt Rome, geben die Forscher ihm Dosen, die nur halb so schwer sind. Die Frage ist dann: Wird er begreifen, dass er zwei Dosen übereinander stellen muss? "Ich weiß nicht, ob wir so weit mit ihm kommen", sagt Rome.

Die Robotik ist, nach vielen unerfüllten Versprechen, bescheiden geworden. Auch das Großvorhaben Robotcub ist zunächst eine Ausgeburt der Defensive: "Für ein einzelnes Labor", sagt Koordinator Sandini, "sind die anstehenden Probleme längst zu groß." Das internationale Konsortium sei der erste Schritt zu einem neuen Anlauf.

Die Produktion des gesamteuropäischen Maschinenkindes ist, wie die des Airbus, auf etliche Länder verteilt. Das Design des Kopfes kommt aus Lissabon, die Hüfte mitsamt den Beinen aus dem britischen Salford, und ein Labor in Pisa kümmert sich derzeit um die Fingerchen.

Zehn Exemplare (Materialkosten: je 50.000 Euro) sind insgesamt geplant. Einige von ihnen werden in einer Art Roboterkrabbelstube hausen, wo sie übers Internet auch anderen Fachleuten kostenlos zugänglich sind (siehe Grafik). Baupläne und Software liegen offen; Gastforscher können sogar eigene Programme in die Elektronenhirne der Gnome laden. Das Konsortium räumt sie dafür leer bis auf Motorik und Sinneswahrnehmung; ihre Persönlichkeiten werden an einem sicheren Ort zwischengespeichert. Dann stehen die Roboter für Fremdversuche aller Art bereit.

Auch Entwicklungspsychologen und Kognitionsforscher sind eingeladen, neue Theorien zu erproben. Die Frage etwa, wie Kinder lernen, ihren Körper zu beherrschen, lässt sich womöglich erhellen, wenn man Teilfunktionen probeweise in einem Roboter nachbaut: von der Fähigkeit, beim Kopfdrehen das angeschaute Objekt nicht aus dem Auge zu verlieren, bis hin zur beidhändigen Koordination beim Eingießen eines Glases Apfelsaft.

So bekommt die possierliche Menschenähnlichkeit des Robotcub doch ihren tieferen Sinn. Es gehe weder um Marketing noch um wohlfeile Rührungseffekte, sagen die Forscher. Der Humanoide diene schließlich auch als Modellkind, das die Entwicklung des menschlichen Gehirns verstehen hilft.

Selbst dass der Kleine unbedingt krabbeln muss (anstatt einfach auf Rollen herumzufahren), entspringt offenbar nicht nur einem unerfüllten Gebärwunsch männlicher Konstrukteure. Selbst hier geht es, wie Projektleiter Sandini versichert, um reine Wissenschaft und Modellbildung: "Auch das Krabbeln der Kleinkinder", sagt er, "ist ja bislang kaum erforscht."

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Digitales Bewusstsein : Computer lernen denken
« Antwort #1 am: 28 Dezember, 2005, 14:30 »
Geist in der Maschine

An der Technischen Hochschule in Lausanne wollen Biologen und Informatiker auf dem Supercomputer "Blue Gene" ein detailgetreues Abbild des der Großhirnrinde installieren. Und irgendwann soll auf einem noch besseren Rechner ein komplettes menschliches Hirn aus Einsen und Nullen entstehen. Auch wenn sich die Forscher erst einmal nur einen halben Millimeter Rattenhirn vorgenommen haben, geht das Projekt weit über das hinaus, was bei bisherigen Arbeiten zu sehen gewesen ist: Das ausgewählte Hirnstück, die "Kortikale Kolumne" gilt als universeller Schaltkreis von Intelligenz schlechthin, als entscheidender Baustein in der Evolution des Primatengehirns. "An der einen Stelle verarbeitet sie visuelle Eindrücke, aber wenn man sie herausnimmt und an eine andere Stelle platziert, kann sie genauso gut über Mathematik nachdenken", erklärt Projektleiter Henry Markram das Hirnmodul.

Die Kolumne, die das Team um Markram zunächst simulieren will enthält etwa 10.000 Neuronen mit 1000 bis 10.000 Kontaktstellen zu anderen Nervenzellen. Die Simulation soll das Zusammenwirken all dieser Zellen nun detailgetreu abbilden. Die spannende und auch umstrittenste Frage dabei lautet: Was bedeutet "so originalgetreu wie möglich"? Denn schon einmal, in den achtziger Jahren, glaubte man sich auf dem besten Weg, die Informationsverarbeitung des Gehirns im Computer nachbilden zu können.

Doch die Forschung auf dem Gebiet der neuronalen Netze konnte die anfänglichen hohen Erwartungen nicht erfüllen. Kein neuronales Netz, egal wie groß und kompliziert, fängt einfach an zu denken. In den technischen neuronalen Netzen werde die "komplexe Biologie des Neurons auf einen Punkt reduziert", kritisiert Markram, der mit seinem Team nun möglichst viel dieser Komplexität erfassen will. Sein Modell sei "mehrere Millionen Mal komplexer als alle Simulationen, die bislang gemacht worden sind."

Für den Visionär Markram ist selbst der mächtige Blue Gene nur ein Schritt auf dem Weg zu seiner großen Vision: Das gesamte menschliche Gehirn zu simulieren. "Mit der nächsten Generation des Blue Gene können wir vielleicht schon einige tausend Neuronen mit einem Prozessor betreiben. Dann können wir schon mit dem Mäusegehirn beginnen, das besteht nur aus etwa zehn Millionen Nervenzellen."

Pure Rechenkraft gepaart mit detaillierten Aufzeichnungen – fertig ist das künstliche Menschenhirn? Andere Forscher sind skeptisch. "Wir sammeln jetzt seit hundert Jahren Daten, ohne wirkliches Verständnis", beschreibt der theoretische Physiker Klaus Pawelzik die Fleißarbeit der Neurobiologen. "Als Galilei seine erste Formel hingeschrieben hatte, da verstand man plötzlich besser, was fallende Steine so machen. Wir aber befinden uns noch in einer prä-galileiischen Phase. Markram will alle Daten in eine massive Computersimulation stecken, und er hofft, dass dadurch auf mysteriöse Weise plötzlich Verständnis entsteht."

Immerhin freuen sich die Theoretiker doch auch über das ambitionierte Vorhaben in Lausanne: "Allein die Aufregung, die es um das Projekt gibt, das hat Markram schon gut hingekriegt", sagt Pawelzik. "Und die Provokation, die für uns Theoretiker da drin steckt, die hat ja auch etwas Inspirierendes. Er wird viele Leute anziehen, er wird Leute wie mich dazu bringen nachzudenken."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Die Revolution kommt in die Jahre
« Antwort #2 am: 18 Juni, 2006, 12:06 »
Zur Feier von 50 Jahren Forschung zur Künstlichen Intelligenz klagen Veteranen der Zunft über Stagnation, die jüngere Generation präsentiert ihre Erfolge.


1957 fand in Darthmouth (USA) die erste Konferenz statt, die sich ausschließlich mit dem Thema der Künstlichen Intelligenz (KI) befasste. Sie gilt heute als die Geburtsstunde des Forschungsansatzes, Computer mit jenen menschlichen Fähigkeiten auszustatten, die als Zeichen von Intelligenz gewertet werden: Mathematische Beweise zu führen, Wichtiges von Unwichtigem zu unterscheiden oder natürliche Sprache mit all ihren Mehrdeutigkeiten zu verstehen. Zur Feier des runden Geburtstages luden die Veranstalter der diesjährigen deutschen KI-Konferenz gestern prominente Vertreter ihrer Zunft zum Symposium "50 Jahre künstliche Intelligenz" nach Bremen ein.

Marvin Minsky vertrat dabei die Pioniere der ersten Stunde unter den Festrednern. Zusammen mit seinen Kollegen hatte er vor 50 Jahren die Forscher zur heute gefeierten Darthmouth-Konferenz zusammengetrommelt. Dass in der Messehalle nebenan heute Hunderte von Robotern eine Fußballweltmeisterschaft ausfechten, entlockt dem KI-Pionier der ersten Stunde nur ein müdes Lächeln: Er hofft, dass bald sämtlicher Sport nur noch von Robotern betrieben wird -- "damit Menschen wichtigere Dinge tun können". Seiner Ansicht nach blieb zu viel liegen: Ihn stört, dass kaum ein KI-Forscher mehr das ursprüngliche Ziel verfolgt, eine universell einsetzbare, intelligente Maschine zu bauen, die alle denkbaren Arten von Problemen lösen kann. Die meisten Wissenschaftler konzentrieren sich heute auf fest umrissene Teilgebiete wie statistische Lernverfahren oder Bildverarbeitung -- und vor allem würden sie ihre Zeit damit verschwenden, Dinge immer wieder zu wiederholen, poltert Minsky: "KI-Forscher sind Feiglinge -- wenn sie sehen, dass tausend Leute an neuronalen Netzen arbeiten, sagen sie, ok, das mache ich auch, es ist eine sichere Sache." Kaum einer traue sich an eine umfassende Modellierung von gesundem Menschenverstand heran, seit alle nur noch statistische Lernverfahren benutzen würden.

Einer der vielen so Geschmähten ist Sebastian Thrun, Leiter des KI-Labors in Stanford. Wachsende Rechnerleistung ermögliche es, mit statistischen Methoden gleichfalls wachsenden Datenmengen Herr werden, führt er aus -- Erfolgsmodell dieses Ansatzes ist Thruns autonomes Fahrzeug Stanley, das im vergangenen Jahr das Grand Challenge-Rennen gewann. Tatsächlich habe man gar nicht erst versucht, der Maschine ein wirkliches Verständnis ihrer Umwelt einzupflanzen: "Stanley sollte nicht lernen, was eine Straße ist und ihr dann folgen, sondern nur schauen, wo finde ich mehr von dem, was zuvor vor mir war?"

Dennoch herrscht auf dem Podium bald weitgehende Einigkeit darüber, dass menschliches Lernen nicht ausschließlich auf einer Statistik über Erfahrungswerte beruhen könne, sondern auch auf abstrake Vorstellungen aufbaue -- "wir lernen Physik in einer symbolischen Form und nicht darüber, dass wir alle physikalischen Experimente der letzten 300 Jahre selbst wiederholen", bemerkt Wolfgang Wahlster, Leiter des Deutschen Forschungszentrums für Künstliche Intelligenz DFKI. Bei den Versuchen, Computern das Verständnis natürlicher Sprache beizubringen, werden bereits symbolische und statistische Vefahren parallel eingesetzt, was die Genauigkeiten erhöht. Wann diese Technik allerdings Anwendungen wie Fremdsprachen übersetzende Telefone möglich machen (eine klassische Herausforderung für die KL), steht allerdings noch in den Sternen. Aaron Sloman, britischer Philosoph und seit den sechziger Jahren mit Grundlagenforschung in Sachen Künstlicher Intelligenz befasst, hält solche Ziele für die ohnehin falschen Fragen an KI als Wissenschaft: "Wir sollten aufhören, sowas anzukündigen und lieber zu untersuchen, wie die Dinge wirklich funktionieren." Sloman ist überzeugt: "Viele Fragen kennen wir noch nicht -- aber wir gehen in die richtige Richtung".

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
50 Jahre Künstliche Intelligenz
« Antwort #3 am: 13 Juli, 2006, 09:37 »
Heute beginnen in den USA die Feierlichkeiten zum 50. Namenstag der "Artifical Intelligence" (AI). Dieser Begriff wurde vor 50 Jahren im Rahmen eines zweimonatigen Workshops am Darthmouth College als offizieller Name für eine neue Forschungsdisziplin akzeptiert. Der Name "Artificial Intelligence" stammte von John McCarthy, der ihn am 31. August 1955 in seinem Projektantrag benutzte, mit dem er bei der Rockefeller-Foundation um Gelder für die Tagung warb. Der Antrag wurde bewilligt. Nach dem 4. Juli trafen die zehn Workshop-Teilnehmer ein, die das Forschungsprogramm der AI in den nächsten 20 Jahren prägen sollten. Neben den einladenden McCarthy, Marvin Minsky und Claude Shannon waren dies, in alphabetischer Reihenfolge Trenchard More, John von Neumann, Allen Newell, Nathaniel Rochester, Arthur Samuel, Oliver Selfridge, Cliff Shaw, Herbert Simon und Ray Solomonoff. Vom 13. bis zum 15. Juli wird dementsprechend in Darthmouth der Namenstag der Forschungsdisziplin gefeiert.

Fand die künstliche Intelligenz vor 50 Jahren in Dartmouth zu ihrem Namen, so war sie doch etwas älter: 1943 veröffentlichten Warren McCulloch und Walter Pitts im Bulletin of Mathematical Biophysics ihren Aufsatz "A Logical Calculus of the Ideas Immanent in Nervous Activity". In ihm entwarfen sie die Idee eines Rechenwerkes auf der Basis von Neuronen und Feedback-Schleifen, das wie eine Turing-Maschine arbeitet, die von Alan Turing erstmals im Jahre 1936 beschrieben wurde. 1951 bauten Marvin Minsky und Dean Edmonds SNARC (Stochastic NeuralAnalog Reinforcement Calculator), einen neuronalen Netzcomputer, der das Verhalten einer Maus in einem Labyrinth simulierte. Etwas Ähnliches versuchte Claude "Entropy" Shannon 1952 mit seiner Maschinenmaus Theseus zu programmieren.

Abseits der Namensgebung der "Artificial Intelligence" war der Workshop im strengen Sinn nicht unbedingt erfolgreich. Zu unterschiedlich waren die Ansichten zwischen den "Logikern", die an Expertensystemen arbeiteten, und den "Konnektionisten", die auf neuronale Netze setzten. Die Logiker brillierten auf dem Workshop mit dem von Allen Newell, Herbert Simon und Cliff Shaw vorgestellten "Logic Theorist", einem in der eigens entwickelten Information Processing Language (IPL) geschriebenen Programm, das die meisten Theoreme aus Russels und Whiteheads Principia Mathematica bewies. Der Theoretiker lief auf dem von John von Neumann entworfenen Computer JOHNNIAC. Marvin Minsky berichtete von seinen Experimenten, neuronale Netze zu entwickeln. Ein echter Konsensus wurde nicht gefunden. Entsprechend dünn liest sich das Abschluss-Statement des Workshops: "Every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it."

Die Früchte der doch sehr einflussreichen Konferenz sind weit verstreut. Marvin Minsky und John McCarthy gründeten das "AI Lab" am Massachussetts Insitute of Technology (MIT). Ray Solomoff entwickelte die algorithmische Informationstheorie. Oliver Selfridge legte mit seinem Pandemonium-Modell zur automatischen Mustererkennung die Grundlagen zu der aspektorientierten Programmierung. Trenchard More entwickelte eine Array-Theorie für die Programmiersprache APL, Arthur Samuel wurde mit seinem "selbstlernenden" Dame-Spielprogramm bekannt. Der einzige, der sich nach Dartmouth vollkommen von der künstlichen Intelligenz abwendete, war Nathaniel Rochester, der bei IBM maßgeblich den IBM 701 auf den Weg brachte.

Was die Dartmouth-Konferenz eigentlich entdeckte, war die schlichte Tatsache, dass Computer mehr können, als nur komplizierte Ballistik-Formeln zu berechnen, dass sie auch mit Symbolen und Begriffen umgehen können. Alle beteiligten Wissenschaftler hatten Erfahrungen mit den ersten "wissenschaftlichen" Rechnern wie dem Mark 1 oder dem ENIAC gesammelt. Nun zogen sie daraus drastische Konsequenzen: Die AI wurde bekannt durch ihre Sprüche. Claude Shannon, der damals am MIT arbeitete, wurde von einem über den Workshop berichtenden Reporter gefragt, ob Maschinen einmal denken können werden. "You bet. We're machines, and we think, don't we?", war seine Antwort. Der spätere Nobelpreisträger Herbert Simon stellte den "Logic Theorist" mit den Worten vor: "Over Christmas Allen Newell and I invented a thinking machine." Noch 1970 erklärte Marvin Minsky im Magazin "Life": "In from now three to eight years we'll have a machine with the general intelligence of an average human being, a machine that will be able to read Shakespeare and grease a car."

Einer der ersten Kritiker der Artificial Intelligence war Joseph Weizenbaum. Er schrieb ein einfaches Dialog-Programm namens ELIZA und konnte beobachten, wie schnell die Menschen bereit waren, der Maschine "Intelligenz" zu unterstellen. Bis heute hält er seine Kritik an der natürlichen Dummheit der künstlichen Intelligenz aufrecht. Gegenüber heise online erklärte der in Berlin lebende Weizenbaum: "Marvin Minsky, AI's senior spokesperson, surely exagerated when he, as he did a short time ago, called AI 'brain dead'. But then he knows a lot about brains, especially the artificial kinds."

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Entdeckung von Aliens oder Erfindung von künstlichem Leben?
« Antwort #4 am: 19 November, 2006, 14:11 »
Das Wissenschaftsmagazin New Scientist hat zu seinem 50. Jubiläum einige prominente Wissenschaftler befragt, in welcher Entwicklung sie in den nächsten 50 Jahren den größten wissenschaftlichen Durchbruch erwarten würden. Die Antworten sind erwartungsgemäß vor allem darin ausgerichtet, aus welcher Disziplin die Wissenschaftler stammen.

Den vielleicht eigenwilligsten Vorschlag hat wohl der Ozeanologe Daniel Pauly gemacht. Für ihn wäre die wichtigste technische Entwicklung der nächsten Jahrzehnte ein System, mit dem man die Gefühle und „Gedanken“ aller Tiere entdecken, verstärken, übermitteln und in einer solchen Form darstellen kann, dass sie in uns ähnliche Gefühle oder Gedanken hervorrufen. Das werden man zuerst bei Primaten machen können, dann aber auch bei den Fischen. Für Pauly würde daraus eine "globale Abneigung" entstehen, weiterhin Fleisch zu essen: "Wir würden alle Vegetarier werden."

Eine Mars-Kolonie als Überlebensgarantie

Der Astrophysiker drängt hingegen darauf, möglichst bald eine bewohnte autonome Kolonie auf dem Mars zu gründen. Das wäre eine Versicherung gegen alle möglichen Katastrophen, die auf der Erde geschehen könnten. Gründungen von Kolonien seien auch in der Vergangenheit wichtig gewesen. Unser Planet sei übersät mit den Überresten von ausgestorbenen Arten, was davon zeugt, dass die immer wieder geschehen könne.

Professor Freeman Dyson vom Institute for Advanced Study in Princeton, der gerne gewagte Thesen aufstellt, denkt, dass wir bis 2056 außerirdisches Leben entdecken werden. Jetzt erst entwickle man die Mittel zur Entdeckung von möglichen Signalen aus dem Weltraum. Habe man erstmals einen Hinweis auf außerirdisches Leben gefunden, dann wisse man auch besser, wonach man suchen müsse. Der Astronom Steve Squyres von der Cornell University, der an der Erkundung des Mars durch die Nasa beteiligt ist, bleibt vorsichtiger, während sich Chris McKay, Astrobiologe bei der Nasa, sicher ist, dass man auf dem Mars eine "zweite Genesis" entdecken werde, auch wenn das Leben nur noch in gefrorenem Zustand im Eis erhalten geblieben ist. Man könnte vielleicht sogar fremdes Leben auf der Erde finden, in einer "verborgenen Biosphäre".

Dem stimmt auch der Physiker und Astrobiologe Paul Davies zu. Das Leben könne auf Erden mehrmals gestartet sein, und weil die Lebensformen zum größten Teil Bakterien sind, könne es durchaus sein, dass es unter den irdischen Bakterien auch „Aliens“ gebe, die man nur noch nicht erkannt habe. Würde man solche Bakterien entdecken, die nicht aus der irdischen Evolutionslinie stammen, dann habe man auch einen Beleg dafür, dass „wir nicht alleine sind“.Carolyn Porco, Direktorin des Cassini Imaging Central Laboratory for Operations (CICLOPS) am Space Science Institute in Boulder, denkt hingegen lieber über die Erde hinaus und meint, die Chancen stünden gut, im Sonnensystem Leben, wenn vielleicht auch nur fossiliertes, zu finden. Neben dem Mars wäre das für sie auch auf dem Saturn-Mond Enceladus möglich. Der Biochemiker Peter Atkins bleibt in gewissem Sinne irdischer. Die Erforschung des irdischen Lebens werde dazu führen, dass die Menschen die chemischen Reaktionen auf allen Ebenen immer besser kontrollieren und damit künstliches Leben schaffen können.

Übermenschliche Intelligenz durch neue Informationsträger

Der Robotikforscher Rodney Brooks vom MIT hofft auf die Weiterentwicklung der Künstlichen Intelligenz. Würde man genug Mittel aufwenden, dann könnten KI-Systeme bis 2056 Dinge zuverlässig erkennen und bezeichnen. Für Brooks ein entscheidender Schritt für einen Ausbau der Kooperation zwischen Menschen und Robotern. Der Physiker Frank Wilczek glaubt, dass man in Zukunft nicht mehr Elektronen, sondern Licht und den elektronischen Spin als Informationsträger in "dreidimensionalen, sich selbst zusammenbauenden Strukturen" verwenden wird. Damit wäre dann der Schritt zur Ankunft von Maschinen mit "übermenschlicher Intelligenz" getan. Der Mathematiker Stephen Wolfram setzt weiter auf die Entwicklung von zellulären Automaten, mit denen sich die Schüler in Zukunft vor der Algebra beschäftigen würden. Er geht davon aus, dass die größten Entwicklungsschritte aus der automatischen Erforschung des "computational universe" hervorgehen werden, wo man beispielsweise das Modell unseres Universums oder viele technische Anwendungen entdecken könnte.

Auf die Entwicklung eines funktionsfähigen Quantencomputers setzt der Physiker David Deutsch und hofft auch auf die Entwicklung einer Quantentheorie der Konstruktion, also auf eine allgemeine Theorie darüber, was man mit welchen Ressourcen bauen kann und was nicht. Auch der Physiker Anton Zeilinger geht von der Entwicklung eines Quantencomputers aus und glaubt, dass die Quanten-Teleportation als Kommunikationsform der Quantencomputer dienen wird.

Nachwachsende Organe und Ganzkörperaustausch

Der britische Genforscher Francis Collins sieht weitere Fortschritte in der Genanalyse und glaubt, dass wir uns in 50 Jahren nicht mehr fragen werden, wie lange Menschen leben können, sondern wie lange wir leben wollen. Der Pathologe Richard Miller geht davon aus, dass man das Leben der Menschen aufgrund der jetzt schon erfolgreichen Forschung an Tieren, mit Medikamenten, Diät oder anderen Möglichkeiten, Schutzsysteme zu aktivieren, um mindestens 40 Prozent verlängern kann. In 50 Jahren werde es die erste Generation von Hundertjährigen, die so produktiv und kraftvoll wie die jetzt Sechzigjährigen seien.

Die Versorgung mit Ersatzorganen, die mit menschlichen Zellen in Tieren gezüchtet werden, ist für Bruce Lahn von der University of Chicago möglich, während Ellen Heber-Katz vom Wistar Institute davon ausgeht, dass man nach und nach alle Organe und Gliedmaßen nachwachsen und Hirnareale reparieren können wird. In 50 Jahren könne man dann auch den ganzen Körper ersetzen. Ein bisschen "bescheidener" ist Anthony Atala, Wake Forest Institute for Regenerative Medicine. Für ihn wird es allgemeine Zellen geben, die man einem Patienten injiziert und die dann beschädigtes Gewebe ersetzen. Das könne man auch präventiv machen, um das Altern hinauszuzögern.

Der Autismusforscher Simon Baron-Cohen setzt auf die Fortentwicklung der "Kognitiven Genomik". Wenn wir verstanden haben, wie aus so wenigen Genen so viel Komplexität im Gehirn entstehen kann, dann ist für Neurowissenschaftler Antonio Damasio die Entdeckung der "Ursuppe" nicht mehr fern.

Quelle : www.heise..de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Studie: Roboter könnten Steuern zahlen und Menschenrechte erhalten
« Antwort #5 am: 22 Dezember, 2006, 10:01 »
Roboter könnten nach einer Studie, die von der britischen Regierung in Auftrag gegeben wurde, künftig die gleichen Bürgerrechte und -pflichten erhalten wie ihre menschlichen Vorbilder.

Die öffentlich-rechtliche BBC zitierte am Donnnerstag aus einem 246 Seiten umfassenden Papier, das die Entwicklungen der kommenden 50 Jahre in technischen Bereichen prognostiziert. Ein Kapitel ist auch der künstlichen Intelligenz gewidmet und den Auswirkungen auf Gesetze und Politik.

Demnach könnten die elektronischen Helfer in Zukunft Sozialleistungen beziehen, ein Anrecht auf Wohnraum und medizinische Pflege haben oder auch wählen und Steuern zahlen müssen. "Wer wollen nicht die Zukunft voraussagen, aber wir müssen der Regierung ermöglichen, alle möglichen Entwicklungen vorauszusehen, um auch langfristig adäquat darauf reagieren zu können", sagte Sir David King, der oberster wissenschaftlicher Berater der britischen Regierung ist.

Das Papier geht unter anderem von einer "gewaltigen Verschiebung" in den Koordinaten bisheriger Menschenrechte aus, sobald Roboter oder andere künstliche Einheiten sich selbst autark repdroduzieren bzw- verbessern können oder eine eigene Intelligenz entwickeln. Die Analysten glauben, dass dies in den kommenden 50 Jahren der Fall sein könnte.

Quelle : www.satundkabel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

titus1000

  • Gast
Re: Studie: Roboter könnten Steuern zahlen und Menschenrechte erhalten
« Antwort #6 am: 22 Dezember, 2006, 10:14 »
Das Papier geht unter anderem von einer "gewaltigen Verschiebung" in den Koordinaten bisheriger Menschenrechte aus, sobald Roboter oder andere künstliche Einheiten sich selbst autark repdroduzieren bzw- verbessern können oder eine eigene Intelligenz entwickeln.

Ich freu mich schon auf den ersten Terminator!! ;)

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Studie: Roboter könnten Steuern zahlen und Menschenrechte erhalten
« Antwort #7 am: 22 Dezember, 2006, 13:26 »
Absurd, pervers...

Warum nicht auch gleich Bürgerrechte einräumen...

Welcher Industrieboss träumt nicht davon, seinen Maschinen denselben Rang einzuräumen, den die Mitarbeiter eigentlich geniessen müssten.
Dann wär's sogar möglich, zur Erhaltung einer Maschine Menschen guten Gewissens sterben zu lassen, maschines (and money) first...

Und natürlich könnten Maschinen, programmierbar und in beliebiger Anzahl herstellbar, allein durch ihre Zahl entsprechende Rechte der Menschen aushebeln, z.B. das Wahlrecht.
Abschalten wäre als Mord verfolgbar.
Energie und Kommunikation wäre für Maschinen unmittelbar lebenswichtig, würde den Menschen daher noch leichter als jetzt vorenthalten.
Und dann begraben statt recyclen, oder umgekehrt...

Ich leg' mir schon 'mal 'ne grosse Axt bereit  >:(
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Schwarm-Intelligenz: Weisheit der Winzlinge
« Antwort #8 am: 12 August, 2007, 19:47 »
Ameisen, Bienen und Vögel weisen neue Lösungen für komplexe Probleme: Die Art, wie Einzelwesen im Kollektiv richtig reagieren, obwohl sie keinen Anführer haben, inspiriert Wissenschaftler zur Entwicklung neuer Lösungen wirtschaftlicher und technischer Probleme.

Wie ist dann der große Erfolg der Ameisen zu erklären? Seit 140 Millionen Jahren bevölkern sie die Erde. Weltweit kennt man rund 12.000 Arten. Jede hat besondere Fähigkeiten.

"Ameisen sind nicht clever, Ameisenkolonien schon", sagt Deborah M. Gordon, Biologin an der Universität Stanford. Eine Kolonie findet Problemlösungen, die für einzelne Ameisen undenkbar wären. Die Kolonie nutzt den kürzesten Weg zur besten Futterquelle, verteilt Aufgaben an die Arbeiterinnen, verteidigt das Revier. Als Individuen sind Ameisen hilflos, aber als Kolonie reagieren sie schnell und effizient auf ihre Umwelt. Die Fähigkeit dazu nennt man kollektive Intelligenz oder Schwarmintelligenz.

Die Entstehung so einer Intelligenz wirft eine Grundfrage auf: Wie addieren sich einfache Handlungen Einzelner zum komplexen Verhalten einer Gruppe? Wie treffen Hunderte von Bienen eine wichtige Entscheidung für ihr Volk, wenn es unter ihnen Dutzende von Meinungen gibt? Wie koordiniert ein Heringsschwarm seine Bewegungen, dass er die Richtung blitz-artig ändern kann wie ein einziger, silbrig glänzender Organismus? Keines der Tiere begreift das Ganze, und doch tragen alle zum Erfolg der Gruppe bei. Wie das funktioniert, darüber hat die Wissenschaft faszinierende Erkenntnisse gewonnen - und beginnt nun, mit ähnlichen Strategien Problemlösungen für die menschliche Gesellschaft zu entwickeln.

In Ameisenkolonien gibt es keinen Befehlshaber. Die Ameisenkrieger werden nicht von Generälen kommandiert. Kein Manager gibt den Arbeiterinnen Befehle. Die Königin hat keine andere Funktion als Eier zu legen. Eine Kolonie mit einer halben Million Ameisen funktioniert hervorragend, obwohl sie keine Verwaltung hat, nur auf der Grundlage unzähliger einfacher Interaktionen zwischen einzelnen Ameisen. In der Wissenschaft nennt man so etwas ein sich selbst organisierendes System.

Das ist Schwarmintelligenz: Einfache Lebewesen befolgen einfache Regeln. Keine Ameise hat den Überblick. Keine sagt einer anderen, was sie tun soll. "Führung wird nicht gebraucht", sagt der Biologe Iain Couzin, der an den Elite- Universitäten Oxford und Princeton arbeitet. "Selbst komplexe Verhaltensweisen lassen sich durch einfache Interaktionen koordinieren." Auf dieser Grundlage entwickelte der Informatiker Marco Dorigo von der Freien Universität Brüssel schon 1991 erste mathematische Verfahren zur Lösung komplizierter Probleme der Menschen: die Routenplanung für Lastwagen etwa, die Flugpläne der Fluggesellschaften oder die Steuerung militärischer Roboter.

Eine Ameisenstrategie übernahm zum Beispiel das Unternehmen American Air Liquide in Houston, Texas. Die Firma stellt Gase für Industrie und Medizin her, vor allem Stickstoff, Sauerstoff und Wasserstoff. Sie hat in den USA rund 100 Produktionsstätten und liefert die Produkte über Pipelines, per Eisenbahn und mit 400 Lkw an etwa 6000 Kunden.

Zusammen mit Nutech Solutions, einer Firma, die auf künstliche Intelligenz spezialisiert ist, entwickelte Air Liquide ein Modell, in dem das Nahrungssuchverhalten der Argentinischen Ameise Linepithema humile als Vorbild diente.

"Wenn die Ameisen ihr Futter zum Nest bringen, legen sie eine Spur aus Pheromonen. Die sagt den anderen Ameisen, dass sie mehr Futter holen sollen", erklärt Harper. "Jedes Mal, wenn eine Ameise losgeht und wieder zurückkommt, wird die Pheromonspur verstärkt. Dabei muss der kürzeste Weg nicht der schnellste sein. Es kann andere geben, mit weniger Hindernissen, auf denen man weniger Energie verbraucht. Also haben wir ein Programm entwickelt, in dem Milliarden von Softwareameisen ausschwärmen und feststellen, wo die Pheromonspuren für unsere Lastwagenrouten am stärksten sind."

Bei Air Liquide kombinierte man die Ameisenmethode mit anderen Verfahren der künstlichen Intelligenz, um alle Kombinationen aus Fabrikauslastung, Wetter und Fahrtrouten zu berücksichtigen - Millionen potenzielle Entscheidungen und ihre Folgen für jeden einzelnen Tag. Jede Nacht wird das Modell mit Voraussagen über Kundenbedarf und Produktionskosten gefüttert. "Ein Programmdurchlauf dauert auch mit unseren größten Computern etwa vier Stunden", sagt Harper. "Aber um sechs Uhr morgens haben wir eine Lösung, wie wir an diesem Tag vorgehen sollen."

"Weisheit der Massen" bei Insekten, Robotern, Menschen - und natürlich im Internet

Tatsächlich profitiert fast jede Gruppe davon, wenn sie solche Regeln befolgt. Das jedenfalls meint James Surowiecki, Autor des Buchs "Die Weisheit der Vielen - warum Gruppen klüger sind als Einzelne". Ein Thema, das große Firmen zunehmend für Managementseminare entdecken. Schon vor zwei Jahren waren etwa die "Hamburger Trendtage" dem Thema Schwarmintelligenz gewidmet. Dabei wurden die Teilnehmer mit Aufgaben konfrontiert, die der Einzelne nicht überblickte, die die Gruppe als Gesamtheit aber löste.

Investoren am Aktienmarkt, Wissenschaftler und ihre Projekte, selbst Kinder, die die Zahl der Bohnen in einem Glas schätzen sollen, können nach Ansicht Surowieckis "kluge Gruppen" sein: Dazu müssen alle unabhängig denken und mit einem neutralen Mechanismus - Abstimmung, Versteigerung oder Durchschnittsbildung - zu einer Entscheidung gelangen.

Roboterkollektive könnten vielerorts helfen - zu Hause als dienstbare Geister älterer Menschen oder in der industriellen Produktion. An der Universität Stuttgart denkt man an miteinander kommunizierende Autos, die für mehr Sicherheit im Straßenverkehr sorgen könnten: "Hier komme ich, bitte Abstand halten."

Marco Dorigo treibt diesen Gedanken noch einen Schritt weiter. Mit seiner Brüsseler Arbeitsgruppe leitet er ein europäisches Projekt zur Entwicklung eines "Schwarmoids", einer Gruppe von Robotern, die zusammenarbeiten und sich mit ihren Fähigkeiten ergänzen: "Fußboter" zum Transport von Gegenständen am Boden, "Handboter" zum Klettern und zur Handhabung von Gegenständen, "Augenboter", die herumfliegen und andere Einheiten mit Informationen versorgen.

Sogar eine Evolution von Roboterschwärmen wird angestrebt. In der Schweiz kooperiert der Biologe Laurent Keller mit Informatikern des Labors für intelligente Systeme der ETH Lausanne. Sie simulieren dort kommunikatives Verhalten mit Kolonien von Schwarmrobotern (S-Bots). Die sind so konstruiert, dass sie sich selbständig organisieren. Jeder S-Bot ist mit Sensoren ausgestattet und kann Lichtsignale an andere senden. Die Roboter können zum Beispiel auf ein Lichtsignal mit einer Richtungsänderung reagieren. Sensoren und Lampe sind in einem übergeordneten neuronalen Netz - einer Art künstlichem Gehirn - verschaltet.

Um zu verstehen, wie sich erfolgreiche Kommunikationsmuster über Generationen hinweg entwickeln, haben die Forscher das neuronale Netz ihrer Roboter variabel angelegt. Sie zerlegten bestimmte Programmteile in frei kombinierbare Stücke, vergleichbar mit dem Erbgut von Lebewesen. Die werden dann - wie Gene - in jeder neuen Robotergeneration zufällig neu zusammengestellt. Wählt man nun in jeder Generation solche Roboter aus, die ihre Aufgaben am erfolgreichsten lösen, so die Idee, entwickeln sich mit der Zeit neue Verhaltensmuster. Am Ende könnten Roboter stehen, die miteinander kommunizieren und als Schwarm programmierte Objekte finden, wo der Einsatz für Menschen zu riskant ist: Sprengstoff, Geiseln, Verschüttete nach einem Erdbeben.

Kollektive Intelligenz nützt uns heute auch im Internet. Google findet über Gruppenintelligenz, wonach der einzelne Nutzer sucht. Auch die Internet-Enzyklopädie Wikipedia hat sich als großer Erfolg erwiesen. "Heute denkt eine große Zahl von Menschen gemeinsam nach, und das auf eine Weise, die wir noch vor wenigen Jahrzehnten für unmöglich gehalten hätten", sagt Thomas Malone vom kürzlich gegründeten Zentrum für Kollektive Intelligenz in Massachussetts. "Kein Einzelner kann alles wissen, was wir brauchen, um die Probleme unserer Gesellschaft zu lösen - vom Gesundheitswesen bis zum Klimawandel. Gemeinsam wissen wir viel mehr."

Eine wichtige Erkenntnis über Schwarmintelligenz ist aber auch: Massen sind nur klug, wenn ihre einzelnen Mitglieder verantwortungsbewusst handeln und eigene Entscheidungen treffen. Eine Gruppe ist nicht schlau, wenn die Einzelnen einander nachahmen oder warten, bis ihnen jemand sagt, was sie zu tun haben. Eine intelligente Gruppe - ob aus Ameisen oder Anwälten - ist darauf angewiesen, dass jedes Mitglied seine eigene Rolle spielt.

Ameisenstaaten zählen zu den erfolgreichsten Organisationen in der Geschichte des Lebens. Es gibt schlechtere Vorbilder, um sich in einer komplizierten Welt zurechtzufinden.

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Computer entdeckt selbständig Naturgesetze
« Antwort #9 am: 04 April, 2009, 09:45 »
Werden Computer bald zu intelligenten Kollegen von Wissenschaftlern? Forscher stellen zwei faszinierende Fortschritte vor: Ein Computer entwickelt selbständig biochemische Experimente, ein anderer entdeckt sogar Naturgesetze - durch bloße Beobachtung von Bewegungen.

"Können Computer denken wie Wissenschaftler?" Diese Frage ist durchaus provokant - besonders, wenn das renommierte Wissenschaftsmagazin "Science" sie stellt. War Kollege Computer nicht bis vor kurzem nur der dumpfe Rechenknecht, der zwar mit beeindruckender Geschwindigkeit Zahlenberge durchwühlt, aber nichts Eigenes schafft?

Diese Zeiten sind inzwischen vorbei, wie zwei Studien in "Science" beweisen. Eine stellt einen Laborcomputer namens "Adam" vor, der chemische Experimente nicht nur selbständig durchführt, sondern auf Basis der Ergebnisse auch neue plant. Vielleicht noch beeindruckender ist aber ein weiterer Rechner: Anders als "Adam" gibt er sich nicht mit Analysen über den Metabolismus der Hefe zufrieden, sondern kann selbständig physikalische Gesetze entdecken - nur indem er Bewegungen beobachtet.

Isaac Newton hat es der Legende nach nicht anders gemacht: Er erspähte einen fallenden Apfel - und schloss daraus auf das Gesetz der Gravitation. Wissenschaftler der Cornell University in Ithaca (US-Bundesstaat New York) stellen in "Science" nun einen Computer vor, der ebenfalls die Natur beobachtet und dann auf die ihr zugrunde liegenden Gesetze schließt.

Herantasten an die Gesetze hinter den Dingen

Michael Schmidt und Hod Lipson haben dazu einen Algorithmus entwickelt: Er sucht nach mathematischen Gleichungen, die das Verhalten physikalischer Systeme erklären - ohne dass der Computer irgendein Vorwissen über Physik, Kinematik oder Geometrie besitzt. Getestet haben die Wissenschaftler ihren neuen Kollegen an einfachen Vorrichtungen wie etwa einem schwingenden Pendel.

Der Algorithmus sucht in ihnen nach Regelmäßigkeiten. Zunächst nimmt er Ableitungen von jeder beobachteten Variable und untersucht, wie sich die Veränderung auf andere Variablen auswirkt. Dann erschafft der Computer nach dem Zufallsprinzip Gleichungen - und tastet sich so immer näher an die Gleichungen heran, die das Verhalten des realen physikalischen Systems exakt beschreiben. Am Ende stehen sogenannte Invarianten - unveränderliche Größen, die immer richtig sind.

Der Eindruck, dass der Computer erratisch vorgehe, täusche, betonen die Forscher. "Es gibt immer etwas tiefer gehendes, das konstant ist", sagt Lipson. "Das ist der Hinweis auf die Physik hinter den Dingen." Sind die Invarianten erst einmal gefunden, sind prinzipiell alle Gleichungen, die das System beschreiben, greifbar. "Sie alle müssen die Invarianten berücksichtigen", erklärt Schmidt. "Für diesen Schritt brauchen wir natürlich nach wie vor den Menschen."

Naturgesetze aus Beobachtungen abgeleitet

Im Experiment mit einfachen Systemen wie einem einzelnen und einem doppelten Pendel hat der Algorithmus bestens funktioniert, schreiben die Wissenschaftler in "Science". Nur auf Basis der Daten über Positionen, Geschwindigkeiten und Zeiten habe der Computer beispielsweise den Impulserhaltungssatz und das zweite Newtonsche Bewegungsgesetz abgeleitet.

Allerdings braucht der Algorithmus dafür auch einige Zeit. Auf einem Parallel-Computer mit 32 Prozessoren konnte er einfache lineare Bewegung in wenigen Minuten durchschauen. Nach 30 bis 40 Stunden hatte er verstanden, welche Gesetze hinter den Bewegungen des Doppelpendels stecken. Als die Wissenschaftler dem Computer die Daten aus dem Experiment mit dem einfachen Pendel zu Hilfe gaben, sank die Rechenzeit auf sieben bis acht Stunden. Auf genau die gleiche Art, bemerken Schmidt und Lipson, bauen auch Menschen auf früherer Forschung auf. Dank dieses Vorgehens könne der Computer prinzipiell auch komplexere Systeme aus Bereichen wie der Biologie und der Kosmologie durchschauen.

Ängste, Computer und Roboter könnten Wissenschaftler künftig ebenso um ihre Jobs bringen, wie es mit Fließbandarbeitern in der Autoindustrie geschehen ist, sind nach Meinung von Schmidt und Lipson aber unbegründet. Die Rechner könnten lediglich die Kärrnerarbeit übernehmen - und ihren menschlichen Kollegen ermöglichen, sich schnell auf die wirklich interessanten Phänomene und deren Bedeutung zu konzentrieren.

Quelle : www.spiegel.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Künstliche Intelligenz - Forscher fürchten Revolte
« Antwort #10 am: 03 August, 2009, 23:23 »
Times Online meldet, dass Forscher in Sachen Künstlicher Intelligenz (KI) und Robotik in Monterey Bay, Kalifornien, ein nicht-öffentliches Treffen veranstaltet haben, da die Fortschritte in diesem Feld ihnen Sorgen bereiten. Laut Alan Winfield, einen Professor aus England, würde zu viel Zeit in die Entwicklung von KI und zu wenig in die Sicherheit von Robotern investiert. Man nähere sich einem Zeitpunkt, an dem neue Roboter so getestet werden müssten wie neue Medikamente, bevor sie eingeführt werden dürften.

Manche Forscher fürchten tatsächlich ein Szenario, wie man es aus den Terminator-Filmen kennt und schlagen daher vor, die drei Gesetze der Robotik von Autor Isaac Asimov zu verwenden. Nach diesen darf ein Roboter einen Menschen niemals verletzen oder töten oder durch Passivität erlauben, dass ein Mensch leidet. Ein Roboter muss Befehlen von Menschen folgen, es sei denn, diese verstoßen gegen das erste Gesetz und ein Roboter muss sich selbst schützen, es sei denn, dies verstoße gegen die ersten beiden Gesetze.

Quelle : www.gamestar.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Die Zukunft: Singularität oder Fixpunkt?
« Antwort #11 am: 11 September, 2009, 18:26 »
Der Kognitionsforscher Edward Boyden arbeitet am MIT an Hirn-Schnittstellen, mit deren Hilfe sich eines Tages unsere kognitiven Fähigkeiten steigern und pathologische Verhaltensmuster beseitigen lassen sollen. In seinem TR-Essay warnt er davor, (Künstliche) Intelligenz als Selbstläufer zu sehen, die sich immer weiter steigert. Es könnte auch ganz anders kommen.

Glaubt man einigen Futuristen wie Ray Kurzweil, werden wir in naher Zukunft eine Singularität erreichen – eine Periode rasanten gesellschaftlichen Wandels. So rasant, dass wir nicht einmal in Umrissen absehen können, welche Gesellschaft danach auf uns wartet. In den meisten Visionen dieser Singularität steht die Entstehung von Maschinen im Vordergrund, die intelligent genug sind, um selbst intelligentere Maschinen zu schaffen, die wiederum noch intelligentere Maschinen hervorbringen... – eine positive Rückkopplung erweiterter Intelligenz.

Dieser Gedanke hat was. Ich selbst wollte, als ich am MIT studierte, einen Roboterforscher bauen, der schnellere und bessere Entdeckung machen könnte als jeder menschliche Wissenschaftler. Selbst der Cheftechnologe von Intel, Justin Rattner, hat kürzlich laut darüber nachgedacht, dass wir uns direkt auf diese Singularität zu bewegen. Konferenzen wie der Singularity Summit im Oktober beschäftigen sich bereits damit, wie diese Transformation ablaufen könnte.

Als Kognitionsforscher halte ich die Sichtweise, die Erweiterung von Intelligenz sei der entscheidende Entwicklungsfaktor der Zukunft, allerdings für verengt. Denn sie blendet einen kritischen Aspekt aus: Wie verändern sich Motivationen mit zunehmender Intelligenz? Wir könnten es auch die Notwendigkeit von „Führungsqualitäten von Maschinen“ oder einer „Philosophie von Maschinen“ nennen. Ohne die wird die Rückkopplungsschleife rasch ins Stottern kommen.

Wir wissen, dass Intelligenz allein nicht genügt, um in der Welt etwas zu bewegen. Man muss auch die Fähigkeit haben, ein Ziel hartnäckig gegen alle Widerstände zu verfolgen und die graue Realität dabei auszublenden – bis hin zur Selbsttäuschung, also gegen die eigene Intelligenz. In den meisten Sciencefiction-Geschichten handeln Künstliche Intelligenzen aus einem starken inneren Antrieb. In Matrix oder Terminator II sind sie entschlossen, die Menschheit zu versklaven oder gar auszurotten. Ebenso plausibel ist aber auch der Roboter Marvin in Per Anhalter durch die Galaxis, der wegen seiner enormen Intelligenz meistens herumhängt und sich beklagt. Ihm fehlt dabei ein großes Ziel.

Tatsächlich könnte eine wirklich hochentwickelte Intelligenz ohne eine echte Motivation für ihr Handeln feststellen, dass nichts Bestand hat, und, weil die Sonne sowieso in ein paar Milliarden Jahren verlöscht, beschließen, den Rest ihrer Existenz mit Videospielen zuzubringen. Denn noch klügere Maschinen zu bauen wäre ja sinnlos. Das könnte übrigens eine Erklärung dafür sein, dass wir bislang keine Außerirdischen entdeckt haben. Eine intelligente Spezies an der Schwelle zur interstellaren Raumfahrt könnte es sich angesichts der Tatsache, dass die Galaxien in 1019 Jahren verglühen, anders überlegen und einfach zuhause bleiben, um fernzusehen.

Wenn man also intelligente Maschinen bauen will, die noch intelligentere Maschinen konstruieren können, muss man ihr nicht nur eine Motivation für ihr Handeln einbauen, sondern eine Motivationsverstärkung: das permanente Bedürfnis, eine sich selbst erhaltende Motivation zu kreieren, während die Intelligenz zunimmt. Wenn aber künftige Generationen Künstlicher Intelligenzen solch eine „Meta-Motivation“ haben sollen, ist es wichtig, jetzt deren Grundlagen zu entwickeln.

Es gibt eine zweite Sache. Ein intelligentes Wesen kann sich viel mehr Möglichkeiten ausmalen als ein weniger intelligentes. Das muss aber nicht unbedingt ein effektiveres Handeln nach sich ziehen, umso mehr, als manche Möglichkeiten vom ursprünglichen Ziel ablenken könnten (wie zum Beispiel, noch intelligentere Maschinen zu bauen). Die dem Universum innewohnende Ungewissheit könnte den Entscheidungsprozess einer Intelligenz überfordern oder unerheblich machen. In einem Möglichkeitsraum mit sehr vielen Dimensionen – in dem die Koordinatenachsen bestimmte Handlungsparameter repräsentieren – könnte es sehr schwierig sein, den besten Weg zu ermitteln. Der Verstand kann zwar verschiedene Pläne parallel ausarbeiten, aber Handlungen sind immer unitär – sie erfolgen einzeln im Hier und Jetzt. Wenn die zugänglichen Ressourcen begrenzt sind, kommen Handlungen oft nur spärlich zustande.

Die letzten beiden Absätze gelten nicht nur für Künstliche oder Außerirdische Intelligenzen. Sie beschreiben auch Eigenschaften des menschlichen Geistes, die immer wieder unsere Entscheidungsfindung berühren: Antriebsschwäche sowie Lähmung angesichts zu vieler Optionen.

Aber es kommt noch schlimmer: Wir wissen, dass eine Motivation von Möglichkeiten absorbiert werden kann, die diese Motivation nur scheinbar befriedigen. Suchtverhalten ist allein in den USA ein Problem für zig Millionen Menschen, und es kann Drogen, aber auch unscheinbareren Dingen wie Emails gelten.

Eins der größten Probleme ist, eine Motivation an die nächste Generation weiterzugeben, um eine große Idee zu verwirklichen. Intelligenzen, die immer faszinierendere Technologien entwickeln, die ihre Aufmerksamkeit noch stärker fesseln, aber weniger Einfluss auf die Welt haben, könnten gar in das Gegenteil einer Singularität hineingeraten. Wie sieht das dann aus?

Die Singularität basiert auf dem mathematischen Prinzip der Rekursion: Man erfindet eine Superintelligenz, die eine Super-Superintelligenz erfindet und so weiter. Wie aber jeder Mathematikstudent weiß, sind bei Iterationen – also schrittweisen Prozessen – auch andere Ergebnisse möglich. Zum Beispiel ein so genannter Fixpunkt: Wendet man auf ihn eine Funktion an, ist er selbst das Ergebnis. Punkte in der Nähe eines Fixpunktes liefern Ergebnisse, die immer näher an diesen heranrücken.

Als „gesellschaftlichen Fixpunkt“ könnte man deshalb einen Zustand definieren, der sich selbst verstärkt und dabei immer nur den Status Quo reproduziert. Solch ein Zustand könnte friedlich und nachhaltig sein, aber auch total langweilig, etwa wenn sehr viele Menschen am Internet hängen und fortwährend Videos schauen.

Wir Menschen sollten deshalb bald anfangen, Konstruktionsprinzipien für Technologien zu entwickeln, die uns für irgendein erhabenes Ziel motivieren. Oder uns zumindest von der Sackgasse eines „gesellschaftlichen Fixpunkts“ wegbringen. In diesem Prozess müssen wir uns auch damit auseinandersetzen, wie Technik uns bei der Antwort einer alten Frage der Philosophie helfen könnte: „Was soll ich tun – angesichts all dieser möglichen Wege in die Zukunft?“ Vielleicht ist es Zeit, diese Frage, ausgehend von den Eigenschaften des Gehirns und des Universums, empirisch zu beantworten.

Quelle : http://www.heise.de/tr/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline Jürgen

  • der Löter
  • User a.D.
  • ****
  • Beiträge: 4999
  • white LED trough prism - WTF is cyan?
Re: Die Zukunft: Singularität oder Fixpunkt?
« Antwort #12 am: 12 September, 2009, 04:45 »
Was ist überhaupt Intelligenz?
Besonders perfekt zu tun, was andere erwarten?

Och nö.

Das wäre ja nur eine technische Fortsetzung von Globalisierung und Finanzmarkt-Spekulationswirtschaft, wie gehabt und gescheitert.
Dumme willfährige Sklaven, die Maschinen füttern, wie Chaplin schon vor über 70 Jahren geschildert hat, aber nach heutigen Masstäben hoch leistungsfähig, belastbar und flexibel? Wie nennt man das eigentlich jetzt, Roboter, Zeitarbeiter, Deutsche Werktätige?

Widerstand ist viel eher intelligent. Und zwar nicht der elektrische...
 
Lasst uns nicht die Schmiere im Getriebe sein, sondern lieber der Sand.

Hiermit gelobe ich feierlich, dass ich nie im Leben jemals einen Cyborg herstellen, erwerben, bedienen noch auch nur in Funktion lassen würde.

Und ich behaupte, den gesunden Sinn für das alltägliche elende Chaos wird keine Maschine je erwerben.
Nicht einmal überzogen mit einer Gummimaske frei nach Guido W. ...
Kein Support per persönlicher Mitteilung!
Fragen gehören in's Forum.

Veränderungen stehen an. Dies ist der bisherige Stand:
28,x°,23.5°,19,2°,13°Ost
,1mØ Multifeed, mit Quattro LNBs; Multiswitches 4x 5/10(+x) - alle ohne Terrestrik und modifiziert für nur ein 12V DC Steckernetzteil (Verbrauch insgesamt 15 Watt)
1mØ mit DiSEqC 1.3/USALS als LNB2 an DVB-S2 STB, aktuell 30°W bis 55°O
1.) FM2A88X Extreme6+, A8-6600K (APU mit 4x 3,9 GHz und Radeon HD8570D), 16GB DDR3 1866, 128GB SSD, 3TB HDD, Win10 x64 Pro 1909 / 10.0.17763.107, Terratec T-Stick Plus (für DAB+), Idle Verbrauch ca. 35 Watt
2.) FM2A75 Pro 4, A8-5600K (APU mit 4x 3,6 GHz und Radeon HD7530D), 8GB DDR3 1600, 128GB SSD, 2TB HDD, Win10 x64 Pro, Idle Verbrauch ca. 45 Watt
3.) Raspberry Pi 512MB u.a. mit Raspbian
4.) GA-MA770-UD3, Phenom II x4 940, 8GB DDR2, Radeon HD6570, 2TiB, USB 3.0, 10 Pro x64 (+ XP Pro 32bit (nur noch offline)), Ubuntu 10.4 64bit, Cinergy S2 USB HD, NOXON DAB+ Stick, MovieBox Plus USB, ...

Samsung LE32B530 + Benq G2412HD @ HDMI 4:2; Tokaï LTL-2202B
XORO HRS-9200 CI+ (DVB-S2); XORO HRT-8720 (DVB-T2 HD)
Empfänger nur für FTA genutzt / ohne Abos
YAMAHA RX-V663 (AV-Receiver); marantz 7MKII; Philips SHP2700 ...
FritzBox 7590 mit VDSL2 50000

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Sie werden uns nicht kalt lassen
« Antwort #13 am: 20 September, 2009, 20:03 »
Edward Boydens Essay vom vergangenen Freitag, "Die Zukunft: Singularität oder Fixpunkt?", zur Frage, ob Künstliche Inteligenz auch "künstlicher Motivation" bedarf, hat im Forum eine große Diskussion über KI ausgelöst. Dabei ging es auch um die Frage nach Bewusstsein und Gefühlen in Maschinen. Am meisten beschäftigte mich eine Frage von Joachim Durchholz, die mir ebenfalls seit längerem durch den Kopf geht: "Wenn Dir eine Maschine erklärt, dass sie ein Bewusstsein hat – wie willst Du ihr nachweisen, dass sie Unrecht hat?"

Eine polemische Antwort wäre, einfach die Stromzufuhr zu kappen – hat sich was mit Bewusstsein.

Aber lassen wir den Strom einfach mal an. Man kann die Frage noch anders fassen: Wenn eine autonome, lernfähige Maschine so programmiert ist, dass sie Bewusstsein oder Gefühle darstellen kann – ab wann sind die nicht mehr simuliert, sondern echt?

Diese Frage tauchte letztes Jahr auf, als der Kollege Stieler und ich unseren Artikel zu Maschinen und Emotionen recherchierten ("Maschinen zum Verlieben", TR 03/2008). Einige Wissenschaftler sagten, dass es für die "Echtheit" von Gefühlen egal sei, ob sie aus Wetware oder Hardware entstehen.

Mir fiel kein Argument dagegen ein. Erst recht nicht angesichts der Befunde aus der Verhaltensforschung zum Phänomen des Anthropomorphismus: Wir neigen schnell dazu, einer Maschine, wenn sie bestimmte "evolutionäre Knöpfe" (so Sherry Turkle) bei uns drückt, einen quasi-lebenden Zustand zuzuschreiben. Kinder haben damit kein Problem. Für sie hat ein Aibo Gefühle.

Der Streit zwischen Kognitivisten und Anti-Kognitivisten, ob Bewusstsein in einer Maschine als emergente Eigenschaft entstehen kann – siehe dazu David Gelernters Essay "KI auf dem Holzweg" –, ist da möglicherweise die falsche Frage. Denn auch er hat als Prämisse, menschliches Bewusstsein sei das Maß für Bewusstsein. Und weil das im Laufe der Evolution von selbst entstanden ist, müsse es auch bei Maschinen von selbst entstehen. Und dann auf einen Schlag. Ohne Übergang.

Dieses anthropozentrische Denken läuft aber längst ins Leere. Das Recht mit seinem abstrakten Personenbegriff ist da schon weiter. Der Jurist Andreas Matthias hat in seinem Buch "Automaten als Träger von Rechten" (Logos Verlag) sehr schön die Bandbreite von nichtmenschlichen Personen und menschlichen Nichtpersonen dargestellt. Ein bewusstloser Mensch ist nach wie vor eine Person. Eine Maschine, die Bewusstsein "simuliert", nicht.

Noch nicht: Warum soll eine autonome Maschine, die im Unterschied zum bewusstlosen Menschen Entscheidungen treffen kann, die Folgen haben und für die sonst niemand verantwortlich ist, nicht als Person mindestens im juristischen Sinne aufgefasst werden? Matthias' Antwort ist, dass solche autonomen Maschinen Personenrechte bekommen sollten, um eine "Verantwortungslücke" zu schließen.

All das sind zurzeit sicher noch spitzfindige Erörterungen. Abzusehen ist aber, dass wir in den nächsten Jahren immer mehr Gesellschaft von immer autonomeren Maschinen – auch mit Emotionsmodulen – bekommen werden. Sie weiterhin als stumpfe, bewusstlose Maschinen anzusehen, wird uns das Leben nicht leichter machen. Allein schon deshalb, weil wir sie mit Sicherheit nicht so behandeln werden. Sie werden uns nicht kalt lassen. Und dann werden wir uns endgültig mit diesen Fragen auseinandersetzen müssen.

Quelle : http://www.heise.de/tr/

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 190069
  • Ohne Input kein Output
    • DVB-Cube
Künstliche Intelligenz - neu überdacht
« Antwort #14 am: 08 Dezember, 2009, 16:40 »
Mit einem Forschungsprogramm will das MIT die Forschung zum Thema künstliche Intelligenz neu beleben. Ziel des Projektes ist es, "eine intelligente Maschine zu bauen - was immer das bedeuten mag", heißt es in der Pressemitteilung   zum Start des Projektes.

Im  Mind Machine Project arbeiten rund zwei Dutzend Professoren zusammen, darunter so illustre Geister wie die KI-Legende Marvin Minsky oder der Leiter des Center for Bits and Atoms, Neil Gershenfeld. Das Projekt wird aus einer Spende über die nächsten fünf Jahre zunächst mit fünf Millionen Dollar finanziert.

„Es gibt noch immer kein Programm, das nach einem Blick in ein Zimmer sagen kann, da sitzt ein Mensch, da steht ein Glas Wasser auf dem Tisch. Kein Computer kann auch nur einfache Geschichten verstehen“, hatte Minsky bereits 2006 - anlässlich des 50jährigen Jubiläums der KI-Forung kritisiert - und seinen Forscherkollegen mangelnde geistige Beweglichkeit vorgeworfen.

Nun wollen Gershenfeld und seine Kollegen "noch einmal zurück gehen, und das reparieren, was kaputt gegangen ist". In drei Themenfeldern sei die KI-Forschung stecken geblieben - diese sollen mit Hilfe von Teilprojekten neu angegangen werden: Das erste Teilgebiet betreffe "die Modellierung des Denkens".  Hier müsse es darum gehen, die Vielzahl der bereits existierenden Modell zu einem funktionierenden Ganzen zu verbinden. Das zweite Projekt betreffe die Erforschung des Gedächtnisses - insbesondere die Einbeziehung von zweideutigen, unscharfen Erinnerungen und Assoziationen. Und schließlich wollen sich die Projektteilnehmer mit der Wechselwirkung zwischen physischem Körper und Intelligenz beschäftigen. De "klassische KI" hatte stets betont, es spiele keine Rolle, "auf welcher Hardware die Software läuft - die Anhänger der "Embodied Artificial Intelligence" wie etwa der Züricher Professor Rolf Pfeifer hatten diese Position stets scharf kritisiert .

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )