Können Computer selbständig Lernen?

Gibt es schon Bereiche, in denen Computer wirklich LERNEN (also ohne, daß das Wissen vorher in irgendeiner Form eingegeben wurde, z.B. als „Regelbaum“)? Und dadurch das Problem immer besser lösen können, sogar besser als der beste menschliche Experte auf dem Gebiet?

Wäre doch ein phänomenaler Durchbruch in der Informatik?

Philip

  1. nein.

  2. definiere lernen

  3. Auch wenn viele KI-ler ihre Programme gerne anders interpretieren entsprechen die „Regellosen“ Lernverfahren zumeist
    einem statistischen Schätzverfahren.

  4. Behauptung: Lernen ist ohne vorher gegebene Struktur unmoeglich.

  5. Auch die „Regellosen“ Verfahren folgen einem Programm und somit implizit Regeln.

  6. Computer schlagen Experten in Bereichen mit extrem eingeschränktem Weltbild (Schach) oder wenn zu vIele Informationen verarbeiter werden muessen Wettervorhersage :smile:

MFG
Martin

Lernen ist also prinzipiell unmöglich?

  1. nein.

Bloße Behauptung?

  1. definiere lernen

„In derselben, reproduzierbaren Situation aus selbständig erworbener Einschätzung (OHNE problemspezifisches Wissen - z.B. in Form einer Heuristik) eine zunehmend bessere Bewertung/Entscheidung treffen.“

  1. Auch wenn viele KI-ler ihre Programme gerne anders
    interpretieren entsprechen die „Regellosen“ Lernverfahren
    zumeist einem statistischen Schätzverfahren.

Die Frage ist hier, ob das Programm die Schätzung *selbständig* verbessern kann!?

  1. Behauptung: Lernen ist ohne vorher gegebene Struktur
    unmoeglich.

Achtung: Inhalt ist nicht Struktur! Wenn ich das ABC kenne (Struktur), kann ich noch lange nicht dichten! Konkretisiere Deine Behauptung bezüglich Inhalt.

  1. Auch die „Regellosen“ Verfahren folgen einem Programm und
    somit implizit Regeln.

Es geht, wie gesagt, darum, daß diese Regeln KEINE „problemspezifische Strategien“ enthalten!

  1. Computer schlagen Experten in Bereichen mit extrem
    eingeschränktem Weltbild (Schach) oder wenn zu vIele
    Informationen verarbeiter werden muessen Wettervorhersage :smile:

Schachprogramme entwickeln keine eigenen Strategien, sind primitive Brute Force Algorithmen, die durch schiere Rechenpower den besten Zug finden. Insofern leider kein gutes Beispiel.

Die Frage ist also wieder offen! Hat jemand einen „Beweis“ bzw. „Gegenbeweis“?

Gruß,
Ph.

  1. nein.

Bloße Behauptung?

Im Prinzip ja. Es sollte die Diskussion davon abhalten, sofort ins SF Brett zu wechseln.

  1. definiere lernen

„In derselben, reproduzierbaren Situation aus selbständig
erworbener Einschätzung (OHNE problemspezifisches Wissen -
z.B. in Form einer Heuristik) eine zunehmend bessere
Bewertung/Entscheidung treffen.“

Wie definiert ein Computer „besser“ ohne problemspezifisches Wissen ? (vgl. unten)

  1. Auch wenn viele KI-ler ihre Programme gerne anders
    interpretieren entsprechen die „Regellosen“ Lernverfahren
    zumeist einem statistischen Schätzverfahren.

Die Frage ist hier, ob das Programm die Schätzung
*selbständig* verbessern kann!?

Was heisst hier selbständig ? Je mehr Daten reinkommen, desto besser wird die Schätzung, da ja a priori gar nicht klar ist, ob sich die gegebene Situation jemals wiederholt und ob die gleiche Lösung wieder die beste ist.

  1. Behauptung: Lernen ist ohne vorher gegebene Struktur
    unmoeglich.

Achtung: Inhalt ist nicht Struktur! Wenn ich das ABC kenne
(Struktur), kann ich noch lange nicht dichten! Konkretisiere
Deine Behauptung bezüglich Inhalt.

Meine Behauptung ist andersherum: Ohne ABC kein Dichten, d.h. ohne Vorwissen kein Lernen. Ich denke, in der Erziehungswissenschaft geht man z.Zt. davon aus, dass zumindest bestimmte Grundstrukturen genetisch gegeben sind. Z.B. tut weh = falsche Loesung. Allein die Bewertung, was „gut“ ist, und was nicht muss also von „aussen“ kommen. (in unserem Falle primaer die Evolution; die, die die Falsche Meinung von „Gut“ hatten, sind halt ausgestorben :smile:

  1. Auch die „Regellosen“ Verfahren folgen einem Programm und
    somit implizit Regeln.

Es geht, wie gesagt, darum, daß diese Regeln KEINE
„problemspezifische Strategien“ enthalten!

Wenn Du nicht problemspezifisch sagst, laesst Du dann eine Art von „Weltwissen“ zu ? Wie sorgst Du dafuer, dass es keine problemspezifischen Anteile enthaelt ?

  1. Computer schlagen Experten in Bereichen mit extrem
    eingeschränktem Weltbild (Schach) oder wenn zu vIele
    Informationen verarbeiter werden muessen Wettervorhersage :smile:

Schachprogramme entwickeln keine eigenen Strategien, sind
primitive Brute Force Algorithmen, die durch schiere
Rechenpower den besten Zug finden. Insofern leider kein gutes
Beispiel.

Hm, Modellvorstellung: wir haben ein Interface gegeben, mit einem k-Bit Eingang, einem n-Bit Ausgang und einem 1 Bit Eingang.

Wir sehen ein Bitmuster (das Problem) am Eingang, Setzten unsere Ausgangsbits und erfahren dann über den 1 Bit Eingang Richtig oder Falsch. So sieht die Welt - ohne problemspezifisches Wissen - fuer den Rechner aus. Das ganze heisst dan Lernen von n k-Stelligen Boolschen Funktionen und ist von einem Herrn Vapnik untersucht worden. Mit Zusatzannahmen wie Polynom niedrigen Grades o.ae (Karpinski) kann man ganz gute Ergebnisse erzielen, aber ich glaube kaum, dass das das ist, was Du dir unter lernen vorstellst.

MFG
Martin

Hallo Philip!

Jein!

Sogenannte neuronale Netze können zwar lernen, allerdings nur auf Grund der Gegebenheiten. Ob der Mensch wesentlich besser ist, oder nur ein neuronales Netz mit 20 Milliarden Neuronen kann ich dir nicht beantworten. Ist eine ziemlich philosophische Frage. (Siehe vielleicht: Philsophie\Freier Wille, leider kam kaum eine gute Diskussion zustande)

Gruß von der Kugelwelt,
Herbert

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Sogenannte neuronale Netze können zwar lernen, allerdings nur
auf Grund der Gegebenheiten.

Man spricht in diesem Fall aber besser von Konditionierung, weil das Netz kein Wissen erwirbt, sondern auf ein Eingangssignal mit einem Ausgangssignal reagiert, welches der Aufgabe entspricht.

Ob der Mensch wesentlich besser
ist, oder nur ein neuronales Netz mit 20 Milliarden Neuronen
kann ich dir nicht beantworten.

Mit Sicherheit ist unser Gehirn kein Perceptron.

Es ist aber schon erstaunlich, was einfache neuronale Netze zustande bringen. So habe ich einmal einen Film über einen Roboter gesehen, der lernen sollte auf sechs Beinen zu laufen. Die Aufgabe bestand aus zwei simplen Regeln: Es ist gut, wenn Du vorwärts kommst und es ist schlecht, wenn Dein Bauch den Boden berührt. Nach dem das Ding anfangs nur unkoordiniert mit den Beinen zappelte begann es irgedwann zu kriechen und schließlich richtig zu laufen.

Die Lernfähigkeit neuronaler Netze steht und fällt mit ihrer Architektur und ihren Lernalgorithmen. Je komplexer die Architektir, desto so komplexer sind die probleme, die das Netz theoretisch bewältigen kann, umso größer sind aber auch die Ansprüche an den Lernalgorithmus. Letzterer stellt ein nichtlineares Optimierungsverfahren für so viele Parameter dar, wie das netz Neuronen hat (das sind mitunter verdammt viele). jeder der sich mit Nichtlinearer Optimierung auskennt weiß, wie schiwerieg (wenn nicht gar unmöglich) das ist. Da ein neuronales Netz allerdings auch in der nichtlinearen Optimierung eingesetz werden kann, bestände die ideale Lösung in einem Netz, das seinen eigenen Lernalgorithmus beinhaltet. Meinses Wissens gibt es soetwas noch nicht (mit Ausnahme hochentwickelter Zentralnervensysteme).

So schön selbstlernende Maschienen auch sind, so problematisch sind sie leider auch. Wenn sie nämlich nur konditioniert sind, weiß man niemals genau, was sie eigentlich gelernt haben. Es gibt da ein hübsches Beispiel aus der Militärtechnik. Da sollte ein Computer lernen Bilder mit Panzern von Bildern ohne Panzern zu unterscheiden. Tatsächlich funktionierte das im Labor wunderbar. Obwohl das netz während der Trainingsphase nur einen Teil der Bilder zu Gesicht bekam, war es anschließend in der Lage auch den Rest der Bilder richtig zu sortieren. Als man ihm dann allerdings gänzlich neue Bilder vorlegte hat es völlig versagt. Nach langem Hin und her stellte man irgendwann fest, daß bei den Trainingsbildern die Panzer bei gutem und die Landschaften ohne Panzer bei schlechten Wetter aufgenommen wurden. Anstatt also Panzer zu erkennen hat das Programm gelernt gutes und schlechtes Wetter zu unterscheiden.

Hallo MrStupid!

Sogenannte neuronale Netze können zwar lernen, allerdings nur
auf Grund der Gegebenheiten.

Man spricht in diesem Fall aber besser von Konditionierung,
weil das Netz kein Wissen erwirbt, sondern auf ein
Eingangssignal mit einem Ausgangssignal reagiert, welches der
Aufgabe entspricht.

Was ist Wissen? Was unterscheidet diese Konditionierung von deinem Wissen? Wissen ist Information…

Ob der Mensch wesentlich besser
ist, oder nur ein neuronales Netz mit 20 Milliarden Neuronen
kann ich dir nicht beantworten.

Mit Sicherheit ist unser Gehirn kein Perceptron.

Wenn ich mich jetzt nicht irr, dann ist ein Perceptron ein einfaches neuronales Netz, Es gibt eine „Wahrnehmungs-“ und eine „Outputschicht“ Nichts dazwischen. Daß die Verarbeitung in unserem Gehirn mehrschichtig ist ist klar (auch in der Hohlwelttheorie), darüber brauchen wir nicht diskutieren.
Aber wenn du meinst, daß das Gehirn mehr als nur ein neuronales Netz ist, muß ich dir auch rechtgeben… Man könnte ewig darüber diskutieren, kommt aber garantiert auf keinen grünen Zweig.

Es ist aber schon erstaunlich, was einfache neuronale Netze
zustande bringen. So habe ich einmal einen Film über einen
Roboter gesehen, der lernen sollte auf sechs Beinen zu laufen.
Die Aufgabe bestand aus zwei simplen Regeln: Es ist gut, wenn
Du vorwärts kommst und es ist schlecht, wenn Dein Bauch den
Boden berührt. Nach dem das Ding anfangs nur unkoordiniert mit
den Beinen zappelte begann es irgedwann zu kriechen und
schließlich richtig zu laufen.

Ja, aber darüber hinaus wird es nichts lernen, weil es eben so konzipiert ist. Wie du ja weiter richtig erklärst.

Die Lernfähigkeit neuronaler Netze steht und fällt mit ihrer
Architektur und ihren Lernalgorithmen. Je komplexer die
Architektir, desto so komplexer sind die probleme, die das
Netz theoretisch bewältigen kann, umso größer sind aber auch
die Ansprüche an den Lernalgorithmus. Letzterer stellt ein
nichtlineares Optimierungsverfahren für so viele Parameter
dar, wie das netz Neuronen hat (das sind mitunter verdammt
viele). jeder der sich mit Nichtlinearer Optimierung auskennt
weiß, wie schiwerieg (wenn nicht gar unmöglich) das ist. Da
ein neuronales Netz allerdings auch in der nichtlinearen
Optimierung eingesetz werden kann, bestände die ideale Lösung
in einem Netz, das seinen eigenen Lernalgorithmus beinhaltet.
Meinses Wissens gibt es soetwas noch nicht (mit Ausnahme
hochentwickelter Zentralnervensysteme).

Bist du dir sicher, daß unser Gehirn fähig ist direkt (also ohne Evolution etc.) seinen Lernalgorithmus zu verbessern? Ich glaube es nicht. Auf Gegenargumente bin ich gespannt.
Da könnte eine Art Evolution in einer Computersimulation mehrerer neuronaler Netze Abhilfe schaffen. Meherere Netze kämpfen ums Überleben, die Programmierer schaffen die Rahmenbedingungen (die die Entwicklungsmöglichkeiten auf die eine oder andere Art wieder einschränken, aber die Naturwissenschaften stellen auch die Grenzen für unsere Evolution dar!) Weißt du ob sowas schon einmal probiert wurde? Ich denke eigentlich schon, habe aber noch keine Info diesbezüglich gefunden…

So schön selbstlernende Maschienen auch sind, so problematisch
sind sie leider auch. Wenn sie nämlich nur konditioniert sind,
weiß man niemals genau, was sie eigentlich gelernt haben. Es
gibt da ein hübsches Beispiel aus der Militärtechnik. Da
sollte ein Computer lernen Bilder mit Panzern von Bildern ohne
Panzern zu unterscheiden. Tatsächlich funktionierte das im
Labor wunderbar. Obwohl das netz während der Trainingsphase
nur einen Teil der Bilder zu Gesicht bekam, war es
anschließend in der Lage auch den Rest der Bilder richtig zu
sortieren. Als man ihm dann allerdings gänzlich neue Bilder
vorlegte hat es völlig versagt. Nach langem Hin und her
stellte man irgendwann fest, daß bei den Trainingsbildern die
Panzer bei gutem und die Landschaften ohne Panzer bei
schlechten Wetter aufgenommen wurden. Anstatt also Panzer zu
erkennen hat das Programm gelernt gutes und schlechtes Wetter
zu unterscheiden.

Ja, das Beispiel kenne ich auch. Spielt ein bißchen in die Thematik vom Turing-Test hinein, der ja noch immer seine Gültigkeit hat!

Gruß,
Herbert
P.S. Was lernt man eigentlich alles, wenn man in Deutschland Chemie studiert?

Nochmal die Frage:
Lernen:

„In derselben, reproduzierbaren Situation aus selbständig
erworbener Einschätzung (OHNE problemspezifisches Wissen -
z.B. in Form einer Heuristik) eine zunehmend bessere
Bewertung/Entscheidung treffen.“

Wie definiert ein Computer „besser“ ohne problemspezifisches
Wissen ? (vgl. unten)

Ich weiß nicht, ich drücke mich offenbar unklar aus. (Spiel*regeln*) sind kein problemspezifisches Wissen, sondern „Bewertungsregeln“ (aufs Schachspiel übertragen). Gewinnen ist in Hinblick auf die Regeln besser als verlieren.

Aber das ist nur Semantik, mich würde vielmehr interessieren, ob Programme selbständig problemspezifisches „lernen“ beherrschen können? So à la HAL oder Homunkulus? Oder muß das für alle Zeiten prinzipiell der SF Literatur vorbehalten bleiben?

Gruß,
Ph.

Erklär mal was du dir unter problemspezifischem Lernen beim Menschen vorstellst

Gruß, Herbert

Ich weiß nicht, ich drücke mich offenbar unklar aus.
(Spiel*regeln*) sind kein problemspezifisches Wissen, sondern
„Bewertungsregeln“ (aufs Schachspiel übertragen). Gewinnen ist
in Hinblick auf die Regeln besser als verlieren.

Aber das ist nur Semantik, mich würde vielmehr interessieren,
ob Programme selbständig problemspezifisches „lernen“
beherrschen können? So à la HAL oder Homunkulus? Oder muß das
für alle Zeiten prinzipiell der SF Literatur vorbehalten
bleiben?

Gruß,
Ph.

Bevor die Frage im Archiv verschwindet…

Erklär mal was du dir unter problemspezifischem Lernen beim
Menschen vorstellst

Sorry, Herbert. Wenn Du die Fragestellung bis jetzt immer noch nicht gerafft hast, wird´s mir doch zu zäh… Nichts für ungut, war halt nur ´ne theoretische Frage. Vielleicht hat aber jemand noch einen interessanten Gedanken hierzu, bevor die Frage im Archiv verschwindet…

Philip

Was ist Wissen? Was unterscheidet diese Konditionierung von
deinem Wissen? Wissen ist Information…

Es steht Dir frei, Wissen und Information als Synonyme zu verwenden, allerdings werden beide häufig getrennt. Während man unter Information alles versteht, was irgendwie übertragen werden kann, versteht man unter Wissen meistens nur diejenigen Informationen, die gespeichert werden, um sie später zur bewußten Selektion verschiedener Handlungsoptionen heranzuziehen.

Eine bewußte Entscheidung findet in einem neuronalen Netz aber nicht statt. Das Netz weiß nicht, was es warum tut (im Gegensatz zu einem Expertensystemn, welches seinen Input anhand einer Wissensbasis bewertet), sondern es reagiert auf ein Eingangssignal reflexartig mit einem Ausgangssignal.

Wenn ich mich jetzt nicht irr, dann ist ein Perceptron ein
einfaches neuronales Netz, Es gibt eine „Wahrnehmungs-“ und
eine „Outputschicht“ Nichts dazwischen.

Es gibt auch Perceptrons mit verdeckten Schichten. Das wesentliche eines Perceptrons besteht darin, daß die Information in einer Einbahnstraße von Schicht zu Schicht weitergereicht wird.

Aber wenn du meinst, daß das Gehirn mehr als nur ein
neuronales Netz ist, muß ich dir auch rechtgeben…

Ich halte es für denkbar, daß das Gehirn ein System mehrerer neuronaler Netze mit unterschiedlichen Architekturen darstellt, in denen zu allem Überfluß mehrere Arten von Neuronen am Werk sind.

Bist du dir sicher, daß unser Gehirn fähig ist direkt (also
ohne Evolution etc.) seinen Lernalgorithmus zu verbessern?

Weder glaube ich das, noch habe ich das behauptet. Unser Lernprogramm ist angeboren und Ergebnis der Evolution. Allerdings ist es auch flexibel genug um Lernen lernen (oder wenigstens trainieren) zu können.

Da könnte eine Art Evolution in einer Computersimulation
mehrerer neuronaler Netze Abhilfe schaffen.

Das unterscheidet sich nicht von herkömmlichen Lernverfahren, nur daß die nichtlineare Optimierung der Wichtungsfaktoren (und möglcherweise sogar der gesamten Netzarchitektur) einem genetischen Algorithmus überlassen wird.

Weißt du ob sowas schon einmal probiert wurde?

S. Bornholdt and D. Graudenz, General asymmetric neural networks and structure design by genetic algorithms, Neural Networks 5 (1992) 327.

Ja, das Beispiel kenne ich auch. Spielt ein bißchen in die
Thematik vom Turing-Test hinein, der ja noch immer seine
Gültigkeit hat!

So ganz glücklich ist man wohl nicht mehr damit, seit es angeblich einem Computer gelungen ist ihn zu bestehen.

P.S. Was lernt man eigentlich alles, wenn man in Deutschland
Chemie studiert?

Kommt auch die Uni an.

Eine bewußte Entscheidung findet in einem neuronalen Netz aber
nicht statt. Das Netz weiß nicht, was es warum tut (im
Gegensatz zu einem Expertensystemn, welches seinen Input
anhand einer Wissensbasis bewertet), sondern es reagiert auf
ein Eingangssignal reflexartig mit einem Ausgangssignal.

Das Expertensystem „weiß“ auch nichts. Es handelt nur nachvollziehbarer

Es gibt auch Perceptrons mit verdeckten Schichten. Das
wesentliche eines Perceptrons besteht darin, daß die
Information in einer Einbahnstraße von Schicht zu Schicht
weitergereicht wird.

Hast recht. Soviel ich weiß gibt es auch Netze mit Rückkoppelung.

Ich halte es für denkbar, daß das Gehirn ein System mehrerer
neuronaler Netze mit unterschiedlichen Architekturen
darstellt, in denen zu allem Überfluß mehrere Arten von
Neuronen am Werk sind.

Ich glaube das ist sowieso Stand der Forschung. Trotzdem macht unser Gehirn mehr aus, als nur 20 Milliarden Neuronen und ihre Verbindung!

Ja, das Beispiel kenne ich auch. Spielt ein bißchen in die
Thematik vom Turing-Test hinein, der ja noch immer seine
Gültigkeit hat!

So ganz glücklich ist man wohl nicht mehr damit, seit es
angeblich einem Computer gelungen ist ihn zu bestehen.

Bestanden? Aber nur für Teilbereiche wie Schach - oder?

Gruß,
Herbert

So ganz glücklich ist man wohl nicht mehr damit, seit es
angeblich einem Computer gelungen ist ihn zu bestehen.

Bestanden? Aber nur für Teilbereiche wie Schach - oder?

Schach ist kein Turing-Test. Um den Turing-Test zu bestehen muß ein Programm einen menschlichen Gesprächspartner so gut imitieren, daß es einem Menschen nicht mehr gelingt, es als Computerprogramm zu identifizieren. Das ist offenbar gelungen.

Weißt du nocht wo du das herhast? Ich hab im Netz nichts darüber gefunden. Turing hat aber soviel ich weiß vorausgesagt, daß gegen Ende des Jahrhunderts eine Maschine den Test bestehen wird.
Ich habe nur von Gari Kasparow gehört, als Deep Blue zum ersten mal einen gewinnbringenden Zug gegen ihn gemacht hat, soll er gesagt haben, daß er zum ersten mal bei einem Computerschachprogramm menschliche Intelligenz vermutet hat…

[Bei dieser Antwort wurde das Vollzitat nachträglich automatisiert entfernt]

Weißt du nocht wo du das herhast?

Das kam als Randnotiz in den Nachrichten. Seitdem habe ich davon leider nichts mehr gehört.

Ich hab im Netz nichts darüber gefunden.

Ganz so düster sieht es auch nicht aus. Ich habe einen Link über den Loebner-Preis gefunden (http://www.cs.flinders.edu.au/research/AI/LoebnerPrize/), nachdem ein Programm im Jahr 1998 eine Wertung von 15% erhalten hat (ab 30% gilt der Test als bestanden). Mir ist allerdings aufgefallen, daß an diesem Wettbewerb offenbar nur kleine Programme teilnehmen, die teilweise auch online sind. Die können natürlich nicht die Leistung von Programmen bringen, die einen Supercomputer auslasten (und solche Programme gibt es). Das Programm ALICE (http://alicebot.org), das letztes Jahr den Loebner-Preis gewonnen hat, ist beispielsweise nicht viel intelligenter als ELIZA. Wenn das tatsächlich der aktuelle Stand der Forschung auf dem gebiet der Chatterboxes ist, dann war der bestandene Turing-Testwohl eher ein Glückstreffer (wenn die Pressemeldung nicht sogar auf ein Mißverständnis seitens der Reporter zurückgeht).

Ich habe nur von Gari Kasparow gehört, als Deep Blue zum
ersten mal einen gewinnbringenden Zug gegen ihn gemacht hat,
soll er gesagt haben, daß er zum ersten mal bei einem
Computerschachprogramm menschliche Intelligenz vermutet hat…

Das hat er aber nur gesagt, weil er noch unter dem Einfluß seiner Niederlage stand. Die nachträgliche Analyse des Spiels hat nämlich ergeben, daß Gari Kasparow nur die Nerven verloren hat. Er war es nämlich nicht gewohnt, daß sein Gegner sich nicht aus dem Konzept bringen ließ. Das lag natürlich daran, daß Deep Blue keine Emotionen besitzt, aber für einen Menschen sieht das so aus, als ob er sich seiner Sache unglaublich sicher ist.

Weißt du nocht wo du das herhast?

Das kam als Randnotiz in den Nachrichten. Seitdem habe ich
davon leider nichts mehr gehört.

Ich hab im Netz nichts darüber gefunden.

Ganz so düster sieht es auch nicht aus. Ich habe einen Link
über den Loebner-Preis gefunden
(http://www.cs.flinders.edu.au/research/AI/LoebnerPrize/),
nachdem ein Programm im Jahr 1998 eine Wertung von 15%
erhalten hat (ab 30% gilt der Test als bestanden). Mir ist
allerdings aufgefallen, daß an diesem Wettbewerb offenbar nur
kleine Programme teilnehmen, die teilweise auch online sind.
Die können natürlich nicht die Leistung von Programmen
bringen, die einen Supercomputer auslasten (und solche
Programme gibt es). Das Programm ALICE (http://alicebot.org),
das letztes Jahr den Loebner-Preis gewonnen hat, ist
beispielsweise nicht viel intelligenter als ELIZA. Wenn das
tatsächlich der aktuelle Stand der Forschung auf dem gebiet
der Chatterboxes ist, dann war der bestandene Turing-Testwohl
eher ein Glückstreffer (wenn die Pressemeldung nicht sogar auf
ein Mißverständnis seitens der Reporter zurückgeht).

Ich tippe auf einen Glückstreffer, den Loebner-Preis hat es
angeblich gewonnen, aber nach einem „Who the fuck is Alice?“ und
nachdem man keine vernünftige Antwort bekommen hat einem
Nachfragen „Please answer this simple question?“ ein „Can you
please rephrase the question?“ war es eigentlich schon ziemlich
klar…

Das hat er aber nur gesagt, weil er noch unter dem Einfluß
seiner Niederlage stand. Die nachträgliche Analyse des Spiels
hat nämlich ergeben, daß Gari Kasparow nur die Nerven verloren
hat. Er war es nämlich nicht gewohnt, daß sein Gegner sich
nicht aus dem Konzept bringen ließ. Das lag natürlich daran,
daß Deep Blue keine Emotionen besitzt, aber für einen Menschen
sieht das so aus, als ob er sich seiner Sache unglaublich
sicher ist.

Wow, gibts irgendwas von dem du nichts weißt?

Wow, gibts irgendwas von dem du nichts weißt?

Kein Ahnung. (nettes Paradoxon :o)