Beitrag vom 17.08.2023 - 20:14 Uhr
Ich finde ja, die aktuellen Bildgeneratoren liefern einen ganz guten optischen Eindruck, was einer generative KI heute leisten kann - bzw was ihr an Verständnis der realen Welt fehlt.
https://www.google.com/search?sca_esv=557804163&q=midjourney+fails&tbm=isch
Dass Firmen Geld für Mitarbeiter sparen wollen ist ja verständlich, aber KI Ausgaben sind weder deterministisch noch vollständig verstanden ( oder "verstehbar") im traditionellen Sinn.
Wer sich also seine Ausflugspläne von einer KI erstellen lässt, darf sich nicht wundern wenn er bisweilen zB in einem Bandenkrieg, einem Kriegsgebiet oder einem aktiven Vulkan landet...
Dieser Beitrag wurde am 17.08.2023 21:13 Uhr bearbeitet.Beitrag vom 17.08.2023 - 20:53 Uhr
Die sog. KI ist ja auch nicht "intelligent". Der Hauptanteil ist ein großer Datenbestand und eine dauerhafte Neubewertung von Wahrscheinlichkeiten. Eine KI kann also nicht "denken" sondern nur Wahrscheinlichkeiten berechnen. Fehlerhafte Ausgaben beeinflussen die Wahrscheinlichkeiten wiederum und erzeugen dann das nächste Mal ein besseres Ergebnis. Eine KI ist nur so gut, wie sie angelernt wurde.
Im Prinzip übernimmt die KI die Arbeitsebene. Eine Bewertung, eine Verifzierung oder Falsifizierung und eine Entscheidung wird am Ende der Mensch vornehmen müssen. Die Menschen, die diese Entscheidung abwälzen und sich auf das Ergebnis der KI verlassen, sind auch die, die tendentiell nach Navi fahren und sich im Fluss wiederfinden oder die sich über Social Media von Trollen beeinflussen lassen.
In einem Bühnenprogramm Erwin Pelzig (Frank-Markus Barwasser) fiel mal sinngemäß der Satz "Ich habe so viele Mögklichkeiten mich zu informieren, wie nie zuvor. Aber ich fühle mich so uninformiert wie noch nie." Und das ist die Herausforderung an die Menschheit und wird die Gesellschaft noch mehr teilen als heute schon ... siehe Navi und Social Media-Trolle.
Beitrag vom 18.08.2023 - 08:19 Uhr
Ich finde ja, die aktuellen Bildgeneratoren liefern einen ganz guten optischen Eindruck, was einer generative KI heute leisten kann - bzw was ihr an Verständnis der realen Welt fehlt.
https://www.google.com/search?sca_esv=557804163&q=midjourney+fails&tbm=isch
Dass Firmen Geld für Mitarbeiter sparen wollen ist ja verständlich, aber KI Ausgaben sind weder deterministisch noch vollständig verstanden ( oder "verstehbar") im traditionellen Sinn.
Wer sich also seine Ausflugspläne von einer KI erstellen lässt, darf sich nicht wundern wenn er bisweilen zB in einem Bandenkrieg, einem Kriegsgebiet oder einem aktiven Vulkan landet...
Wo sehen Sie da einen Unterschied? Auch heute fahren Menschen, selbst entschieden, zum Urlaub auf die Krim, nach Kolumbien oder Mexico und, trotz Vulkanausbruchs, nach Catania in den Urlaub. Sie haben ihre individuelle Risiko/Fun/Preis/Umstände, ... Bewertung, wie die KI auch. Ich glaube nur, dass die KI hier eher dazulernt ;-), denn nächstes Jahre werden wieder Millionen Menschen selbst gewählt im Sommer in den Süden fahren und über die Hitze meckern.
Beitrag vom 18.08.2023 - 08:25 Uhr
Ich finde ja, die aktuellen Bildgeneratoren liefern einen ganz guten optischen Eindruck, was einer generative KI heute leisten kann - bzw was ihr an Verständnis der realen Welt fehlt.
https://www.google.com/search?sca_esv=557804163&q=midjourney+fails&tbm=isch
Dass Firmen Geld für Mitarbeiter sparen wollen ist ja verständlich, aber KI Ausgaben sind weder deterministisch noch vollständig verstanden ( oder "verstehbar") im traditionellen Sinn.
Wer sich also seine Ausflugspläne von einer KI erstellen lässt, darf sich nicht wundern wenn er bisweilen zB in einem Bandenkrieg, einem Kriegsgebiet oder einem aktiven Vulkan landet...
Kommt drauf an, wenn man sehr an Abenteurer interessiert ist, oder ein unstillbares Faible für die Geologie des Erdinneren hat, dann ist der KI Reiseberater seinem humanen Kollegen sicherlich um Längen voraus 🙂
Beitrag vom 18.08.2023 - 08:45 Uhr
Ich finde ja, die aktuellen Bildgeneratoren liefern einen ganz guten optischen Eindruck, was einer generative KI heute leisten kann - bzw was ihr an Verständnis der realen Welt fehlt.
https://www.google.com/search?sca_esv=557804163&q=midjourney+fails&tbm=isch
Dass Firmen Geld für Mitarbeiter sparen wollen ist ja verständlich, aber KI Ausgaben sind weder deterministisch noch vollständig verstanden ( oder "verstehbar") im traditionellen Sinn.
Wer sich also seine Ausflugspläne von einer KI erstellen lässt, darf sich nicht wundern wenn er bisweilen zB in einem Bandenkrieg, einem Kriegsgebiet oder einem aktiven Vulkan landet...
Wo sehen Sie da einen Unterschied? Auch heute fahren Menschen, selbst entschieden, zum Urlaub auf die Krim, nach Kolumbien oder Mexico und, trotz Vulkanausbruchs, nach Catania in den Urlaub. Sie haben ihre individuelle Risiko/Fun/Preis/Umstände, ... Bewertung, wie die KI auch. Ich glaube nur, dass die KI hier eher dazulernt ;-), denn nächstes Jahre werden wieder Millionen Menschen selbst gewählt im Sommer in den Süden fahren und über die Hitze meckern.
Der Unterschied liegt darin, dass generative KIs für die meisten Inputs scheinbar ganz vernünftige Ausgaben liefern, der Anwender demzufolge glaubt, sich darauf verlassen zu können.
In relativ wenigen Fällen mit nur leicht anderen Inputs/Promts ( andere Reihenfolge, ein anderes Synonym, ... ) haut sie plötzlich so weit daneben, das man das Ergebnis überhaupt nicht nachvollziehen kann.
Da greift dann das, was FRAHAM schrieb.
Irgendeine Gewichtung im neuronalen Bewertungsnetz hat diese falsche Antwort erzeugt. Verständnis oder Intelligenz liegt dem nicht zugrunde. Nur Statistik.
Die Ausgaben einer KI Stand heute sind prinzipiell nicht deterministisch und daher potentiell riskant.
Beitrag vom 18.08.2023 - 09:32 Uhr
Wo sehen Sie da einen Unterschied? Auch heute fahren Menschen, selbst entschieden, zum Urlaub auf die Krim, nach Kolumbien oder Mexico und, trotz Vulkanausbruchs, nach Catania in den Urlaub. Sie haben ihre individuelle Risiko/Fun/Preis/Umstände, ... Bewertung, wie die KI auch. Ich glaube nur, dass die KI hier eher dazulernt ;-), denn nächstes Jahre werden wieder Millionen Menschen selbst gewählt im Sommer in den Süden fahren und über die Hitze meckern.
Der Unterschied liegt darin, dass generative KIs für die meisten Inputs scheinbar ganz vernünftige Ausgaben liefern, der Anwender demzufolge glaubt, sich darauf verlassen zu können.
In relativ wenigen Fällen mit nur leicht anderen Inputs/Promts ( andere Reihenfolge, ein anderes Synonym, ... ) haut sie plötzlich so weit daneben, das man das Ergebnis überhaupt nicht nachvollziehen kann.
Eben, in relativ wenigen Fällen. Man kann doch nicht erwarten, dass diese Maschine die Ergebnisse von Evolution in kurzer Zeit so aufholt, dass sie, das sollte das Ziel sein, diese Ergebnisse übertrifft. Wobei die Definition des Besseren der Knackpunkt ist. In beide Richtungen. Vielleicht ist dies ja ein menschliches Manko, zu viel Tunnel und zu wenig Out of the box? Verlassen Sie sich denn immer auf menschliche Entscheidungen?
Da greift dann das, was FRAHAM schrieb.
Irgendeine Gewichtung im neuronalen Bewertungsnetz hat diese falsche Antwort erzeugt.
Auch hier, wie definieren wir richtig/falsch.
Verständnis oder Intelligenz liegt dem nicht zugrunde. Nur Statistik.
Was ja manchmal nicht verkehrt ist.
Die Ausgaben einer KI Stand heute sind prinzipiell nicht deterministisch und daher potentiell riskant.
Genau so wie menschlische Denke und die daraus folgenden Entscheidungen. Das fehlt mir hier in der Betrachtung. Aktuelles Beispiel... Russland.
Beitrag vom 18.08.2023 - 11:32 Uhr
KI setzt eine gute Datenbasis und eine entsprechende Vernetzung dieser voraus.
Wer pflegt diese Daten? Wer kontrolliert die Neutralität der Aufbereitung?
Gibt es dann - z. B. in D - Stadtteile, die man nach Einbruch der Dämmerung nicht betreten sollte?
Wie lange dauert es, bis eine Baustelle oder Strassensperrung z. B. im Navi wirksam wird?
Beim Navi gibt es den Hinweis, dass alles unverbindlich ist.
Bei einer Reise mit oder ohne KI ist allerdings alles verbindlich!
KI soll wohl die Druckmedien ersetzen.
"KI" erlebt man, wenn man etwas mit Google such: Zunächst werden alle möglichen Verkäufer oder Suchportale angezeigt, auch wenn diese den Suchbegriff nicht als Produkt kennen können!
LH will z. B. Google-Produkte für Notfälle bei der Flugplanung nutzen...
Dieser Beitrag wurde am 18.08.2023 11:32 Uhr bearbeitet.
Beitrag vom 18.08.2023 - 13:20 Uhr
Der Unterschied liegt darin, dass generative KIs für die meisten Inputs scheinbar ganz vernünftige Ausgaben liefern, der Anwender demzufolge glaubt, sich darauf verlassen zu können.
In relativ wenigen Fällen mit nur leicht anderen Inputs/Promts ( andere Reihenfolge, ein anderes Synonym, ... ) haut sie plötzlich so weit daneben, das man das Ergebnis überhaupt nicht nachvollziehen kann.
Eben, in relativ wenigen Fällen. Man kann doch nicht erwarten, dass diese Maschine die Ergebnisse von Evolution in kurzer Zeit so aufholt, dass sie, das sollte das Ziel sein, diese Ergebnisse übertrifft. Wobei die Definition des Besseren der Knackpunkt ist.
In beide Richtungen. Vielleicht ist dies ja ein menschliches Manko, zu viel Tunnel und zu wenig Out of the box? Verlassen Sie sich denn immer auf menschliche Entscheidungen?
Lernen bzw besseres Verständnis und kontinuierliche Verbesserung durch Feedback passiert aber genau so bei KIs eben nicht.
Die Ergebnisse springen von oft "eigentlich ganz nachvollziehbar" hin zu "völlig abstrus" und zurück ohne nachvollziehbaren Grund.
Beispiel hier, wieder anhand von Bildern.
https://www.watson.ch/spass/digital/455764138-diese-21-ki-generierten-bilder-sind-der-stoff-aus-dem-albtraeume-sind
Ich möchte halt keine Reise vorgeschlagen bekommen, die ähnlich weit von der Anfrage abweicht, wie eins dieser Bilder :D
Da greift dann das, was FRAHAM schrieb.
Irgendeine Gewichtung im neuronalen Bewertungsnetz hat diese falsche Antwort erzeugt.
Auch hier, wie definieren wir richtig/falsch.
Verständnis oder Intelligenz liegt dem nicht zugrunde. Nur Statistik.
Was ja manchmal nicht verkehrt ist.
Man kann halt als Betreiber einer KI keine bestimmte Ergebnisgüte garantieren.
Nicht mal in einem sehr weit gefassten Rahmen für "Güte".
Nachtrag: Gerade neu von heute:
https://arstechnica.com/information-technology/2023/08/microsoft-ai-suggests-food-bank-as-a-cannot-miss-tourist-spot-in-canada/
"Consider going into it on an empty stomach."
Eine "food bank" ist vergleichbar etwa mit unserer Tafel
Dieser Beitrag wurde am 18.08.2023 14:17 Uhr bearbeitet. Beitrag vom 18.08.2023 - 15:38 Uhr
Der Unterschied liegt darin, dass generative KIs für die meisten Inputs scheinbar ganz vernünftige Ausgaben liefern, der Anwender demzufolge glaubt, sich darauf verlassen zu können.
In relativ wenigen Fällen mit nur leicht anderen Inputs/Promts ( andere Reihenfolge, ein anderes Synonym, ... ) haut sie plötzlich so weit daneben, das man das Ergebnis überhaupt nicht nachvollziehen kann.
Eben, in relativ wenigen Fällen. Man kann doch nicht erwarten, dass diese Maschine die Ergebnisse von Evolution in kurzer Zeit so aufholt, dass sie, das sollte das Ziel sein, diese Ergebnisse übertrifft. Wobei die Definition des Besseren der Knackpunkt ist.
In beide Richtungen. Vielleicht ist dies ja ein menschliches Manko, zu viel Tunnel und zu wenig Out of the box? Verlassen Sie sich denn immer auf menschliche Entscheidungen?
Lernen bzw besseres Verständnis und kontinuierliche Verbesserung durch Feedback passiert aber genau so bei KIs eben nicht.
Die Ergebnisse springen von oft "eigentlich ganz nachvollziehbar" hin zu "völlig abstrus" und zurück ohne nachvollziehbaren Grund.
Beispiel hier, wieder anhand von Bildern.
https://www.watson.ch/spass/digital/455764138-diese-21-ki-generierten-bilder-sind-der-stoff-aus-dem-albtraeume-sind
Ich möchte halt keine Reise vorgeschlagen bekommen, die ähnlich weit von der Anfrage abweicht, wie eins dieser Bilder :D
Aber warum nicht? Am Ende sind Sie es, der die Entscheidung trifft, das ist etwas für mich oder eben nicht. Ja, die Bilder sind lustig und völlig verrückt. Das es hierbei keine Rückmeldung gibt ist aber nicht die Schuld von KI. Da wo es sie gibt, wo Entscheidungen auf ihren Erfolg überprüft werden, da funktioniert es ganz gut und das System lernt. Wenn ihm jemand sagt oder es selbst herausfindet, ein Mensch hat nur zwei Beine, dann wird es das zukünftig berücksichtigen. Warten Sie noch ein paar Jahre, dann werden diese Bilder weniger. Aber, bildlich gesprochen ;-), solcher Ergebnisse gibt es auch von Menschen gemacht.
Da greift dann das, was FRAHAM schrieb.
Irgendeine Gewichtung im neuronalen Bewertungsnetz hat diese falsche Antwort erzeugt.
Auch hier, wie definieren wir richtig/falsch.
Verständnis oder Intelligenz liegt dem nicht zugrunde. Nur Statistik.
Was ja manchmal nicht verkehrt ist.
Man kann halt als Betreiber einer KI keine bestimmte Ergebnisgüte garantieren.
Nicht mal in einem sehr weit gefassten Rahmen für "Güte".
Nachtrag: Gerade neu von heute:
https://arstechnica.com/information-technology/2023/08/microsoft-ai-suggests-food-bank-as-a-cannot-miss-tourist-spot-in-canada/
"Consider going into it on an empty stomach."
Eine "food bank" ist vergleichbar etwa mit unserer Tafel Beitrag vom 18.08.2023 - 16:19 Uhr
Das es hierbei keine Rückmeldung gibt ist aber nicht die Schuld von KI. Da wo es sie gibt, wo Entscheidungen auf ihren Erfolg überprüft werden, da funktioniert es ganz gut und das System lernt.
Nein, genau das macht KI (das, was wir heute KI nennen) eben nicht.
Diese Ergebnisse sind Resultate irgendwelcher stistischer Gewichtungen in einem neuronalen Netz.
Das kann man nicht in dem Sinn beheben. Oder durch Feedback korrigieren.
Wenn ihm jemand sagt oder es selbst herausfindet, ein Mensch hat nur zwei Beine, dann wird es das zukünftig berücksichtigen.
Sie setzen jetzt hier Verständnis und Wissen voraus, wo nur Statistische Bewertungen zwischen Eingangs- und Ausgangssignalen stattfinden.
FRAHAM hat das weiter oben sehr gut beschrieben.
Warten Sie noch ein paar Jahre, dann werden diese Bilder weniger
Gut Möglich.
Ich halte es nur heute für riskant, Ausgaben von KI-Generatoren ungeprüft an Kunden auszuspielen - wie das offenbar Microsoft bereits tut und die Reisebranche in größerem Maßstab offenbar vorhat.
Beitrag vom 18.08.2023 - 16:59 Uhr
Dass über Chat GPT so prominent berichtet wird liegt nur daran dass diese Software Text schreibt und diejenigen welche auf dieser Welt für die Bereederung der Medien zuständig sind auch Text schreiben und nicht dass die Idee, das Konzept oder sogar die Umsetzung so neu wäre.
Natürlich kann die KI Reisevorschläge machen aber das konnten hunderte (u.U. etwas spezialisiertere) Programme schon vor ihr. Wenn sie das besser kann als ihre Vorgänger dann umso besser. Es steht eine große Pensionierungswelle an.
Beitrag vom 19.08.2023 - 19:14 Uhr
@EricM,
dann gehen Sie davon aus, dass ausreichend viele Touristen nach bzw. während der Reise entsprechende Bewertungen abgeben - am besten ins entsprechende Portal.
Da bin ich gespannt, was die KI-Anwendungen im Tourismus wirklich leisten werden.
Bildmanipulationen gab es schon lange vor Photoshop. Heute sind die Ansprüche gestiegen. Technisch und inhaltlich muss die Verfäschung nicht feststellbar sein. Dazu braucht man das entsprechernde Hintergrundwissen und -material und auch die richtigen Werkzeuge.... Sie zeigte Ergebnisse aus KI-Werkzeugen für zu Sparsame.
Beitrag vom 19.08.2023 - 22:30 Uhr
Kurze Klarstellung: Bei meinen Beispielen ging es nicht um Bildmanipulation, sondern um Bildgenerierung durch eine KI anhand von Texteingaben bzw einer Szenenbeschreibung.