In diesem Artikel wird beschrieben, dass die Firma Microsoft eine interne Demo gezeigt hat, bei der man dem Spiel Minecraft sagen kann, was es tun soll. Eine KI versteht die gesprochenen Wünsche und erfüllt sie im Spiel. Wobei Minecraft aufgrund seiner Flexibilität und Realitätsnähe ein ideales Übungsfeld für KIs ist, es gibt aber keine Pläne, eine solche KI im Spiel wirklich einzubauen.
Wer das Dialogsystem ChatGPT kennt (hier erstaunliche Beispiele) oder die generierten Kunstwerke von DallE-2 (hier erstaunliche Beispiele), kann sich in etwa vorstellen, wie das in Minecraft aussehen könnte. Genauere Infos, wie diese Demo ausgesehen hat, gibt es noch nicht, aber der Autor des Artikels sagt, dass die Firma OpenAI, die ebenfalls an künstlicher Intelligenz forscht, ihre KI mit 70.000 Stunden Minecraft-Videos gefüttert hat. Danach konnte das Spiel z. B. selbständig eine Werkbank und Holzwerkzeuge herstellen.
Diese KIs unterscheiden sich in hohem Maße von den sogenannten "KIs" z.B. der Dorfbewohner und anderer Kreaturen im Spiel. Die Minecraft-Kreaturen enthalten nur einige programmierte Abläufe, die sie unter vorgegebenen Bedingungen (z.B. zu einer bestimmten Tageszeit) durchführen. Der Begriff "künstliche Intelligenz" ist hier ziemlich fehl am Platz, denn es handelt sich nur um "simulierte Intelligenz".
Kennt ihr das berühmte Bild von René Magritte, das eine Pfeife zeigt, unter der (auf Französisch) steht: "Das ist keine Pfeife"? - Erst wird gelacht (weil es doch eine Pfeife ist), dann wird nachgedacht: Es ist tatsächlich keine echte Pfeife, sondern nur ein Bild. - So ist es auch mit der sogenannten "KI": Das ist keine echte Intelligenz, es sieht nur so aus. Daher fände ich "simulierte Intelligenz" besser.
Bei den Minecraft-Kreaturen ist klar, dass sie nicht wirklich intelligent sind. Aber wie sieht das bei ChatGPT, DallE-2 und anderen professionellen KIs aus? Sie funktionieren in hohem Grade mit Mustererkennung durch sogenannte Neuronale Netze. So ähnlich, wie wir als Menschen erst etwas lernen müssen, bevor wir es anwenden können, wird diesen KIs in einer Trainingsphase eine riesige Anzahl von Mustern mit korrektem Ergebnis vorgegeben. Zum Beispiel viele gesprochene Worte und die zugehörigen Textworte. Nach Abschluss der Trainingsphase kann die KI gesprochene Worte als Text aufschreiben. Das ist höchst erstaunlich und auch nützlich, aber das ist keine "künstliche Intelligenz", weil die KI keine Ahnung hat, was die Worte bedeuten. Sie folgt nur ihren angelernten Mustern.
Der nächste Schritt ist, die Worte mit Bildern oder Anweisungen zu verbinden und der KI auch diese Verknüpfungen in einer Trainingsphase beizubringen. Danach kann die KI auf mündliche oder schriftliche Anweisungen reagieren und überzeugende Ergebnisse liefern. Aber immer noch ist das nur die Simulation einer Intelligenz. Keine KI "weiß", was sie tut. Sie folgt nur einer großen Menge von gelernten Mustern. Selbst Gefühle kann eine KI simulieren. Sie kann lernen, wann sie einer Computerfigur einen lachenden oder einen weinenden Gesichtausdruck verpassen soll, aber alles bleibt nur Simulation, das ist keine Intelligenz.
Der Begriff "Intelligenz" hat etwas mit "verstehen" zu tun. Eine KI versteht nicht, was sie tut. Sie hat kein Bewusstsein. Auch das könnte man simulieren. Man kann einer KI in der Trainingsphase angemessene Reaktionen auf entsprechende Situationen beibringen, damit es aussieht, als ob sie Gefühle, Empathie und Bewusstsein hätte. Dann sind wir ganz nahe dran, dass man die Antworten einer simulierten Intelligenz nicht mehr von denen eines echten Menschen unterscheiden kann. Der Film Blade Runner (nach einem Roman von 1968) beschäftigt sich damit, wie man echte von künstlichen Menschen unterscheiden kann. Alan Turing hat 1950 dazu einen Test entwickelt, der auch im Begriff CAPTCHA steckt, einer Technik, um echte Menschen von Spam-Bots zu unterscheiden.
Wohin führt das alles? Wenn wir an Minecraft denken, wird es sicherlich keine KI geben, die das Spiel für uns spielt, also vom Start bis zum Sieg über den Enderdrachen, während wir nur zuschauen, weil man damit keinen Gewinn erzielen könnte. Wenn wir über Minecraft hinaus an den Einsatz von KIs denken, wird die Sache schwieriger. Letztlich geht es darum, die Antworten oder Ergebnisse von echten Menschen auch in Zukunft stets sicher erkennen zu können, um nicht durch künstlich generierte Antworten oder Ergebnisse manipuliert zu werden.
Wer das Dialogsystem ChatGPT kennt (hier erstaunliche Beispiele) oder die generierten Kunstwerke von DallE-2 (hier erstaunliche Beispiele), kann sich in etwa vorstellen, wie das in Minecraft aussehen könnte. Genauere Infos, wie diese Demo ausgesehen hat, gibt es noch nicht, aber der Autor des Artikels sagt, dass die Firma OpenAI, die ebenfalls an künstlicher Intelligenz forscht, ihre KI mit 70.000 Stunden Minecraft-Videos gefüttert hat. Danach konnte das Spiel z. B. selbständig eine Werkbank und Holzwerkzeuge herstellen.
Diese KIs unterscheiden sich in hohem Maße von den sogenannten "KIs" z.B. der Dorfbewohner und anderer Kreaturen im Spiel. Die Minecraft-Kreaturen enthalten nur einige programmierte Abläufe, die sie unter vorgegebenen Bedingungen (z.B. zu einer bestimmten Tageszeit) durchführen. Der Begriff "künstliche Intelligenz" ist hier ziemlich fehl am Platz, denn es handelt sich nur um "simulierte Intelligenz".
Kennt ihr das berühmte Bild von René Magritte, das eine Pfeife zeigt, unter der (auf Französisch) steht: "Das ist keine Pfeife"? - Erst wird gelacht (weil es doch eine Pfeife ist), dann wird nachgedacht: Es ist tatsächlich keine echte Pfeife, sondern nur ein Bild. - So ist es auch mit der sogenannten "KI": Das ist keine echte Intelligenz, es sieht nur so aus. Daher fände ich "simulierte Intelligenz" besser.
Bei den Minecraft-Kreaturen ist klar, dass sie nicht wirklich intelligent sind. Aber wie sieht das bei ChatGPT, DallE-2 und anderen professionellen KIs aus? Sie funktionieren in hohem Grade mit Mustererkennung durch sogenannte Neuronale Netze. So ähnlich, wie wir als Menschen erst etwas lernen müssen, bevor wir es anwenden können, wird diesen KIs in einer Trainingsphase eine riesige Anzahl von Mustern mit korrektem Ergebnis vorgegeben. Zum Beispiel viele gesprochene Worte und die zugehörigen Textworte. Nach Abschluss der Trainingsphase kann die KI gesprochene Worte als Text aufschreiben. Das ist höchst erstaunlich und auch nützlich, aber das ist keine "künstliche Intelligenz", weil die KI keine Ahnung hat, was die Worte bedeuten. Sie folgt nur ihren angelernten Mustern.
Der nächste Schritt ist, die Worte mit Bildern oder Anweisungen zu verbinden und der KI auch diese Verknüpfungen in einer Trainingsphase beizubringen. Danach kann die KI auf mündliche oder schriftliche Anweisungen reagieren und überzeugende Ergebnisse liefern. Aber immer noch ist das nur die Simulation einer Intelligenz. Keine KI "weiß", was sie tut. Sie folgt nur einer großen Menge von gelernten Mustern. Selbst Gefühle kann eine KI simulieren. Sie kann lernen, wann sie einer Computerfigur einen lachenden oder einen weinenden Gesichtausdruck verpassen soll, aber alles bleibt nur Simulation, das ist keine Intelligenz.
Der Begriff "Intelligenz" hat etwas mit "verstehen" zu tun. Eine KI versteht nicht, was sie tut. Sie hat kein Bewusstsein. Auch das könnte man simulieren. Man kann einer KI in der Trainingsphase angemessene Reaktionen auf entsprechende Situationen beibringen, damit es aussieht, als ob sie Gefühle, Empathie und Bewusstsein hätte. Dann sind wir ganz nahe dran, dass man die Antworten einer simulierten Intelligenz nicht mehr von denen eines echten Menschen unterscheiden kann. Der Film Blade Runner (nach einem Roman von 1968) beschäftigt sich damit, wie man echte von künstlichen Menschen unterscheiden kann. Alan Turing hat 1950 dazu einen Test entwickelt, der auch im Begriff CAPTCHA steckt, einer Technik, um echte Menschen von Spam-Bots zu unterscheiden.
Wohin führt das alles? Wenn wir an Minecraft denken, wird es sicherlich keine KI geben, die das Spiel für uns spielt, also vom Start bis zum Sieg über den Enderdrachen, während wir nur zuschauen, weil man damit keinen Gewinn erzielen könnte. Wenn wir über Minecraft hinaus an den Einsatz von KIs denken, wird die Sache schwieriger. Letztlich geht es darum, die Antworten oder Ergebnisse von echten Menschen auch in Zukunft stets sicher erkennen zu können, um nicht durch künstlich generierte Antworten oder Ergebnisse manipuliert zu werden.