Community / Allgemeines aus der Luftfahrtbranche / KI in der Luftfahrt

Beitrag 1 - 15 von 17
1 | 2 | « zurück | weiter »
Beitrag vom 22.04.2019 - 23:33 Uhr
Usernean00
User (17 Beiträge)
Hallo zusammen,

ich möchte dieses Thema eröffnen, um einen Ort zu haben, dieses immer wieder auftretende Thema langfristig diskutieren zu können.

Für mich ist die Entwicklung in diesem Bereich sehr spannend. Ich würde gerne Informationen von Menschen bekommen, die sich in diesem Bereich auskennen. Und natürlich auch die Meinungen von allen anderen.

Ich würde auch den Begriff KI nicht zu eng sehen. Vielleicht eher als Bezeichnung für Alles, was den Weg zu autonomen Flugzeugen ebnet.

Ich habe die Entwicklung solcher KI Systeme bisher hauptsächlich im Umfeld von Fahrzeugen beobachtet und bin teilweise immernoch über eine breite Ablehnung dieses Themas beim Flugzeug erstaunt.

Ich glaube sagen zu können, dass eine maschinelle Steuerung eines Autos heute bereits sehr gut darstellbar ist. Warum autonom fahrende Autos noch keine Serienreife haben, liegt zum großen Teil auch an der Umsetzbarkeit der vielen Regeln und der beengten Räume zwischen den Akteuren im Straßenverkehr. Ampeln und Schilder müssen erkannt werden, die Position der Straße muss zentimetergenau bekannt sein, die Absichten von Fußgängern müssen bewertet werden und Reaktionen im Milisekundenbereich müssen folgen.

Alles Dinge, die in der Luftfahrt fast keine Rolle spielen. Hier geht es letztendlich immer um die Zuverlässigkeit der Systeme. Gibt es also wirklich so viele Punkte die gegen autonome Flugzeuge in (naher?) Zukunft sprechen?

Wer hat Interesse an einer offenen Diskussion?
Beitrag vom 22.04.2019 - 23:56 Uhr
Userchris7891
User (713 Beiträge)
Hallo zusammen,

ich möchte dieses Thema eröffnen, um einen Ort zu haben, dieses immer wieder auftretende Thema langfristig diskutieren zu können.

Für mich ist die Entwicklung in diesem Bereich sehr spannend. Ich würde gerne Informationen von Menschen bekommen, die sich in diesem Bereich auskennen. Und natürlich auch die Meinungen von allen anderen.

Ich würde auch den Begriff KI nicht zu eng sehen. Vielleicht eher als Bezeichnung für Alles, was den Weg zu autonomen Flugzeugen ebnet.

Ich habe die Entwicklung solcher KI Systeme bisher hauptsächlich im Umfeld von Fahrzeugen beobachtet und bin teilweise immernoch über eine breite Ablehnung dieses Themas beim Flugzeug erstaunt.

Ich glaube sagen zu können, dass eine maschinelle Steuerung eines Autos heute bereits sehr gut darstellbar ist. Warum autonom fahrende Autos noch keine Serienreife haben, liegt zum großen Teil auch an der Umsetzbarkeit der vielen Regeln und der beengten Räume zwischen den Akteuren im Straßenverkehr. Ampeln und Schilder müssen erkannt werden, die Position der Straße muss zentimetergenau bekannt sein, die Absichten von Fußgängern müssen bewertet werden und Reaktionen im Milisekundenbereich müssen folgen.

Alles Dinge, die in der Luftfahrt fast keine Rolle spielen. Hier geht es letztendlich immer um die Zuverlässigkeit der Systeme. Gibt es also wirklich so viele Punkte die gegen autonome Flugzeuge in (naher?) Zukunft sprechen?

Wer hat Interesse an einer offenen Diskussion?

Nichts vom Absturz der B737Max mitbekommen, bei der maßgeblich die Software Schuld war. Die Piloten konnten nicht eingreifen.
Die Software ist nur so gut wie sein Erschaffer.
Daher sollte es in der Luftfahrt so wenig wie möglich eingesetzt werden. Piloten braucht man immer noch, ob am Boden(Drohnenpiloten der USA) oder in der Luft. So ganz alleine wird ein Flugzeug daher nie alleine fliegen.
Beitrag vom 23.04.2019 - 09:09 Uhr
UserA320Fam
User (771 Beiträge)
Ist eine gute Idee hier einen eigenen Thread zu eröffnen.
KI bedeutet nicht Automation, sondern Gelerntes anzuwenden. Das ist auch immer mit Fehlern verbunden, denn aus Fehlern lernt man. Bei einem Flugzeug bedeutet aber ein Fehler immer zugleich ein Absturzrisiko. Das bedeutet letztlich, bei der Entwicklung müssten zu 100% alle Möglichkeiten bekannt und programmiert sein. Es nützt da nix aus vorherigen Fehlern gelernt zu haben, denn schon diese Ersterscheinung könnte einen Absturz zu Folge haben.
Hätte eine Automatik die Hudson"Landung" geschafft? Also die "Landung" selbst wahrscheinlich schon. Aber hätte sie die vorangegangenen Entscheidungen auch so getroffen? Kann man sowas überhaupt programmieren? Wie ist das beim autonomen Fahren, wie entscheidet die Automatik, ob sie jetzt den Fussgänger umfährt oder das Auto doch gegen den Laternenfahl setzt?
Die 737Max Geschichte ist ein "gutes" Beispiel für Programmierung ohne Beachtung aller möglichen Eventualitäten. Das System hat jetzt zwar gelernt, die Programmierung/Datenbank verändert, am Anfang stehen aber 346 Tote.
Beitrag vom 23.04.2019 - 10:25 Uhr
UserEricM
User (1456 Beiträge)
Ist eine gute Idee hier einen eigenen Thread zu eröffnen.
Stimme zu :)

Ich würde auch den Begriff KI nicht zu eng sehen. Vielleicht eher als Bezeichnung für Alles, was den Weg zu autonomen Flugzeugen ebnet.

KI bedeutet nicht Automation, sondern Gelerntes anzuwenden.

Schon die ersten beiden Aussagen zu "KI" zeigen das grundlegende Problem auf: "KI" ist kein festgelegter Begriff oder eine Technik.
KI ist ein Marketingbegriff, der "modern" suggeriert, und unter dem verschiedenste Produkte/Dienstleistungen vermarktet werden.

Keine dieser Techniken hat dabei etwas mit "Intelligenz" im deutschen Wortsinn zu tun.
KI ist eine Eindeutschung statt Übersetzung des englischen AI, wobei die englische "Intelligence", wie zB im Kürzel "CIA", mit Informationsbeschaffung statt Intelligenz übersetzt werden sollte.

Daher werden gerade im deutschen Sprachraum immer wieder unrealistische Erwartungen an "KI"-Systeme formuliert.

Ein Schwerpunkt bei der AI/KI ist heutzutage die frei trainierbare Mustererkennung.
Hierbei wird (OK, ist sehr grob beschrieben) mit Trainingsdaten ein oder mehrere Muster trainiert, die bestimmte Reaktionen auslösen sollen. Für Sicherheitssysteme zB "Person mit Waffe".
Hierzu werden dann viele Trainings-Bilder mit und ohne dieses Merkmal vom System gelesen und mit verschiedenen Filtern bewertet.
Die Kombination der Filterwerte wird dann abgespeichert und damit tatsächliche Bilder von Kameras bewertet.
In vielen Fällen lassen sich mit dieser Technik verblüffend hohe Trefferraten erzielen.

Probleme:
Die Entscheidungen das Systems sind nicht deterministisch. Leicht andere Trainingsdaten können zu ganz anderen Ergebnissen führen.
Es kommt immer wieder zu Fehlerkennungen, bei der eine Summe von Linien oder völlig andere Motive die Filter so ansteuern, dass die Erkennung auslöst.

Diese Probleme habe ich hier anhand der Bilderkennung beschrieben, da man es sich so am ehesten vorstellen kann.
Das gleiche Problem besteht aber bei der Anwendung von KI Algorithmen auf zB Finanzdaten oder Wettermodelle, nur sind die Auswirkungen der Fehlerkennungen dann abstrakter und schwerer zu beschreiben aber genauso fatal.

Bezogen auf autonomes Fliegen:
Nicht-Determinstisch ist keine Eigenschaft, die man für aktive Steuerungen haben möchte.
Auch die Fehlerrate der Mustererkennung deutlich > 0 ist für Steuerungsaufgaben nicht wirklich brauchbar.

KIs in aktiven Steuerungen, speziell in der Luftfahrt, halte ich daher aktuell noch für Science Fiction - oder Marketing.

Dieser Beitrag wurde am 23.04.2019 11:24 Uhr bearbeitet.
Beitrag vom 23.04.2019 - 11:00 Uhr
Userfbwlaie
User (4211 Beiträge)
Die B737MAX ist wegen eines Hardwarefehlers (AoA-Sensor, Aerodynamik) abgestürzt.
Ferner ist die Flossentrimmung bei der 737 problematisch. Die manuelle Trimmung ist im Vergleich zur maschinellen Trimmung zu lamgsam und u. U.zu schwergängig.
Mit besserer Software, die z. B. die AoA-Sensordaten mit dem pitch, der Geschwindigkeit(sentwicklung) etc. vergleicht, wäre es nicht zu einem Unfall gekommen.
Wenn MCAS eingreifen muss, dann muss auch sichergestellt sein, dass dieser Eingriff auf korrekten Daten basiert.
Falls der Pilot MCAS übersteuern kann, stellt sich natürlich die Frage, ob MCAS überhaupt nötig ist.
Natürlich wussten die Boeing-Leute, dass auch ein AoA-Sensor versagen kann bzw. falsche Daten im Zielsystem ankommen können. Schon die bestehende Verarbeitung der AoA-Sensordaten dürfte mangelhaft sein. Das hat man wohl beim MCAS-Einbau nicht berücksichtig! Weshalb auch...Ungeprüfte bzw. fehlerhafte Daten werden doch nicht weitergegeben bzw. als solche gekennzeichnet. Es findet immer eine "Eingangskontrolle" statt!

Beitrag vom 23.04.2019 - 13:14 Uhr
Usercokoyn
User (12 Beiträge)
Auch ich sehe die Entwicklung von autonomen Flugzeugen eher skeptisch. Mehrere Aspekte sind meiner Meinung nicht gelöst und werden daher, wenn es dann überhaupt noch gewollt ist, die letztendlich Einführung um Dekaden nach hinten verschieben. Zu meinem Background, ich bin Pilot und habe auch hier in diesem Forum schon einmal zu diesem Thema in einem anderen Thread etwas geschrieben.
1. technische Faktoren: Obwohl schon viel Automatisierung in unsere Cockpits Einzug gefunden hat, sind einige Systeme einfach nicht zuverlässig genug um Sie ohne Überwachung zu realisieren. Es reicht halt keine Zuverlässigkeit von 1:1.000.000. Klar kann man jetzt sagen, dass der Computer auch die non-normals bewältigen kann, aber was ist wenn der Computer ausfällt? Alleine in meiner Airline hatten wir letztes Jahr 4 Double FMC failures (konnten alle wiederhergestellt werden, aber wer macht das? Ohne Computer? Richtig der Mensch). Und für bestimmte Situationen ist auch eine gewisse Antizipation oder Kreativität gefragt (Hudson). Wenn eine komplett neue Situation entsteht weiß das Programm halt nicht was es machen soll.
2. Zulassung: Es müsste internationale Regeln für die Zulassung solcher Systeme geben und alle Länder müssten mitmachen. Was bringt es mir, wenn ich in den USA autonom fliegen darf aber nach Europa möchte? Dann muss ich trotzdem 2 Piloten vorne reinsetzten.
Wer prüft die Software? Wieder der Hersteller selbst, da die Zulassungsbehörde keine Ahnung oder Genug Fachkräfte hat?
Und allein die Zulassung von „normalen“ Flugzeugen dauert ja schon Jahre.
3. IT-Sicherheit: Ich denke dieses Problem könnte relativ schnell und kurz den Anstaz des autonomen Fliegens in Luft auflösen lassen. Die Systeme wollen bestimmt auch von außen ansteuerbar und beeinflusst werden. Und egal was mir eine Firma oder Behörde sagt, es wird gehackt werden können. Die Frage ist nur wie lange es dauert. Dann brauchen Terroristen quasi „nur“ noch einen Laptop und man hat den Super-GAU.
4. Akkzeptanz der Passagiere: Einige würden nicht mehr in den Flieger steigen aus wahrscheinlich oben genannten Problemen. Das bedeutet, dass weniger Menschen buchen, was wiederum den Umsatz drücken würde. Bin kein Fachmann aber wenn nur 10% weniger buchen hat man mit Sicherheit die Kosten für die Piloten raus. (von der Entwiclung ganz zu schweigen)

Freue mich auf eine fachliche und interssante Diskussion
Beitrag vom 23.04.2019 - 14:08 Uhr
UserFW 190
User (1213 Beiträge)
Da gab es mal einen CPT Utter, bis 1985 im Vorstand von LH (bis 1980 aktiv als CPT) der hat zu (oder kurz nach) seinem Abschied behauptet, in 10 Jahren bedarf es nur noch eines Piloten und bis in 20 Jahren können die Flugzeuge autonom mit dem Computer fliegen. Ich behaupte mal der konnte nur das Wort Computer schreiben aber nicht eine Zeile Programmcode.

Warten wir noch einmal 35 Jahre dann klappt es - vielleicht. Die Leute die sich mit AI beschäftigen, lächeln immer nur nachsichtig über die ganzen Zeitungserfolgsmeldungen. Ein enger Verwandter, Master in AI und z.Zt. Promotion, sieht die Erfolge für AI (oder auch KI) auf ganz anderen Gebieten: Auswertung extrem großer Datenmengen in kurzer Zeit. Beispiel das Foto des schwarezen Loches oder die Gravitationswellen Nachweise. Die Algorithmen des Programms werden von der AI dann immer weiter optimiert und selbsttätig umgeschrieben. Macht das mal mit der Software für Flugsteuerung. Das ist ein no go.
Beitrag vom 23.04.2019 - 21:05 Uhr
UserBV 144
User (100 Beiträge)
Mal abgesehen davon das es grundsätzlich keine selbstlernenden Maschinen gibt (den Code beliebig komplex zu schreiben wird da nichts ändern): das Erfolgsrezept des Menschen ist ja nicht nur sein großes Gehirn.
Es gibt (sehr große) Tiere welche ein größeres Gehirn haben als wir aber nicht solch gute Hände, Augen und Ohren um Erfahrungswerte zu sammeln und ihre Ideen praktisch zu überprüfen.

Eine hypothetische KI könnte das nur in irgendeiner von Menschen entwickelten Simulation die unvorstellbar hohe Rechenleistung erfordern würde und natürlich nur so weit wie unser Wissenstand gehen wird und stark von den persönlichen Einschätzungen und Annahmen ihrer Entwickler gefärbt sein wird.

Also nicht auszuschließen das die KI das was der Computer eh schon kann (also Auswerten, Verwalten usw.) noch besser machen wird aber nicht mehr.
Beitrag vom 25.04.2019 - 16:45 Uhr
UserEricM
User (1456 Beiträge)
P.S:

Ein sehr gutes Beispiel für KI Ausreißer, die einer "Intelligenz" nie passieren würden, wieder am Beispiel einer Bilderkennung  hat gerade die KU Leuven geliefert.
Hier wird eine Person mit einem umgehängten kleinen bunten Papp-Schild nicht mehr als Person erkannt.


Dieser Beitrag wurde am 25.04.2019 16:46 Uhr bearbeitet.
Beitrag vom 25.04.2019 - 22:02 Uhr
Userfbwlaie
User (4211 Beiträge)
Da der Fehler erkannt ist, dürfte masn schon nach Lösungen suchen.
Das ist wohl wie vielen Messgeräten: Sie müssen regelmässig kalibriert werden.
Bei der Mustererkennung wird dem Analysegerät ein Endprodukt aufgetischt.
In der Luftfahrt dürfte die KI es mit einer Entwicklung von Ereignissen zu tun haben. Die Lösung eines Problems muss immer im Kontext zu den vorherigen Ereignissen stehen.
Beitrag vom 25.04.2019 - 22:37 Uhr
Userleser xaz
User (70 Beiträge)
Hallo zusammen,

ich möchte dieses Thema eröffnen, um einen Ort zu haben, dieses immer wieder auftretende Thema langfristig diskutieren zu können.

Für mich ist die Entwicklung in diesem Bereich sehr spannend. Ich würde gerne Informationen von Menschen bekommen, die sich in diesem Bereich auskennen. Und natürlich auch die Meinungen von allen anderen.

Ich würde auch den Begriff KI nicht zu eng sehen. Vielleicht eher als Bezeichnung für Alles, was den Weg zu autonomen Flugzeugen ebnet.

Ich habe die Entwicklung solcher KI Systeme bisher hauptsächlich im Umfeld von Fahrzeugen beobachtet und bin teilweise immernoch über eine breite Ablehnung dieses Themas beim Flugzeug erstaunt.

Ich glaube sagen zu können, dass eine maschinelle Steuerung eines Autos heute bereits sehr gut darstellbar ist. Warum autonom fahrende Autos noch keine Serienreife haben, liegt zum großen Teil auch an der Umsetzbarkeit der vielen Regeln und der beengten Räume zwischen den Akteuren im Straßenverkehr. Ampeln und Schilder müssen erkannt werden, die Position der Straße muss zentimetergenau bekannt sein, die Absichten von Fußgängern müssen bewertet werden und Reaktionen im Milisekundenbereich müssen folgen.

Alles Dinge, die in der Luftfahrt fast keine Rolle spielen. Hier geht es letztendlich immer um die Zuverlässigkeit der Systeme. Gibt es also wirklich so viele Punkte die gegen autonome Flugzeuge in (naher?) Zukunft sprechen?

Wer hat Interesse an einer offenen Diskussion?


offene Diskussion zu KI in der Luftfahrt?

sehr gerne

könnte indes mu geschehen, dass es zu Fragen zu Intelligenz führte
Beitrag vom 26.04.2019 - 08:38 Uhr
UserEricM
User (1456 Beiträge)
Da der Fehler erkannt ist, dürfte masn schon nach Lösungen suchen.
Das ist wohl wie vielen Messgeräten: Sie müssen regelmässig kalibriert werden.
Bei der Mustererkennung wird dem Analysegerät ein Endprodukt aufgetischt.
In der Luftfahrt dürfte die KI es mit einer Entwicklung von Ereignissen zu tun haben. Die Lösung eines Problems muss immer im Kontext zu den vorherigen Ereignissen stehen.

Das ist richtig.
Was ich hier herausstellen wollte, war die Tatsache, dass die deutsche Bezeichnung künstliche "Intelligenz" sehr am Thema vorbeigeht da es keine wirkliche Intelligenz in KI-Algorithmen gibt.
Machine Learning, Fuzzy Logic, Neuronale Netze und mehrere andere Technologien, die unter dem Begriff "KI" zusammengefasst werden, sind letztlich auch "nur" Algorithmen - die prinzipbedingt bisweilen unvorhersehbare Ergebnisse liefern, was abseits von Technologiedemos durchaus fatal enden kann.

Zu dem Thema "fatal" kann man zB mal "Flash Crash" googlen. Ein Begriff der das Verhalten mehrerer KIs beschreibt, bei der jede, jeweils auf die anderen reagierend, einen Kurssturz an der Börse auslösen, der völlig ohne realen Grund ist.

Dieser Beitrag wurde am 26.04.2019 08:40 Uhr bearbeitet.
Beitrag vom 26.04.2019 - 10:27 Uhr
Userfbwlaie
User (4211 Beiträge)
KI ist wohl eine Technik, mit der man versucht, schneller zu einigermassen sicheren Ergebnissen zu kommen.
Der Vergleich mit einem Schach-Computer können bzgl. des Begriffes weiter führen.
Testet der Rechner alle Möglichkeiten durch ("brutal force") oder nutzt er Datenbanken und seine Rechnerleistung? Früher gab es kaum Multiprozessorsysteme, mit denen man etwas wirklich gleichzeitig ausrechen kann.
Ein anderes Beispiel ist das Navi im Auto.
Was ist Intelligenz? Wikipedia: "...gibt es keine allgemeingültige Definition der Intelligenz."
In der Luftfahrt hiesse das am Beispiel der 737MAX:
1. Mit ungeprüften Daten steuert man kein Flugzeug nach unten!
2. Man vergleicht immer alle Daten der Sensoren...
3. Wenn man Fehlermeldungen auf dem Bildschirm ausgibt, könnte man auch etwas zu den Ursachen und zu den möglichen Reaktionen (durch die Piloten) melden.
....
Das dürfte aber kein Datenverarbeiter als KI (in der Luftfahert) bezeichnen, da die Daten doch alle irgendwie auch auf Rechnern verfügbar sind!


Dieser Beitrag wurde am 26.04.2019 10:36 Uhr bearbeitet.
Beitrag vom 26.04.2019 - 11:32 Uhr
UserEricM
User (1456 Beiträge)
KI ist wohl eine Technik, mit der man versucht, schneller zu einigermassen sicheren Ergebnissen zu kommen.

Sowohl schneller als auch ausgehend von (für Computer) unstrukturierten Daten ( zB. Audio, Video, etc. )

Der Vergleich mit einem Schach-Computer können bzgl. des Begriffes weiter führen.
Testet der Rechner alle Möglichkeiten durch ("brutal force") oder nutzt er Datenbanken und seine Rechnerleistung? Früher gab es kaum Multiprozessorsysteme, mit denen man etwas wirklich gleichzeitig ausrechen kann.
Ein anderes Beispiel ist das Navi im Auto.
Was ist Intelligenz? Wikipedia: "...gibt es keine allgemeingültige Definition der Intelligenz."
In der Luftfahrt hiesse das am Beispiel der 737MAX:
1. Mit ungeprüften Daten steuert man kein Flugzeug nach unten!
2. Man vergleicht immer alle Daten der Sensoren...
3. Wenn man Fehlermeldungen auf dem Bildschirm ausgibt, könnte man auch etwas zu den Ursachen und zu den möglichen Reaktionen (durch die Piloten) melden.
....
Das dürfte aber kein Datenverarbeiter als KI (in der Luftfahert) bezeichnen, da die Daten doch alle irgendwie auch auf Rechnern verfügbar sind!

Richtig, der 737MAX Unfall hat nichts mit KI zu tun, denn das unter Verdacht stehende MCAS System ist eine vergleichsweise sehr simple Automatisierungslösung, die von der Komplexität her unter der Motorsteuerung eines PKWs angesiedelt sein sollte.
Beitrag vom 27.04.2019 - 15:21 Uhr
UserFW 190
User (1213 Beiträge)
Mal abgesehen davon das es grundsätzlich keine selbstlernenden Maschinen gibt (den Code beliebig komplex zu schreiben wird da nichts ändern): das Erfolgsrezept des Menschen ist ja nicht nur sein großes Gehirn.

Also das unterschreibe ich nicht mehr, siehe hier:

 https://www.faz.net/aktuell/wirtschaft/kuenstliche-intelligenz/computer-bringt-sich-selbst-go-bei-und-wird-weltklasse-15253783.html

Der schreibt sich dann auch seinen Code um.

Dieser Beitrag wurde am 27.04.2019 15:21 Uhr bearbeitet.
1 | 2 | « zurück | weiter »