@ChrisJumper: Ich finde, dass ist ein sehr guter Beitrag und du hast auch viele valide Punkte und Sorgen genannt und ich versteh jetzt auch deine Einwände deutlich besser. Da können sich hier einige Poster eine Scheibe von abschneiden
Trotzdem muss ich da nachhaken, weil es für mich eine wichtige(die für mich ZENTRALE) Frage nicht beantwortet:
"Was tuen wir dann gegen die Probleme?"
Ich hoffe du findest diese Frage nicht auch "hinterhältig". Ich möchte nur wissen, was wir denn konkret machen, wenn wir zu der Erkenntnis kommen SOLLTEN, dass wir sagen: KI hat zuviele Probleme, es gibt zuviele Risiken, das ist nicht die Lösungen?
Ich sehe deinen Vorschlag, dass man es "unter sich" lösen müsse, als nicht effektiv an. Die negative Folge davon wird leider oft sein: Es kommt zu keiner Einigung. Egal wie höflich, freundlich oder auch mal energisch oder gar agressiv man jemanden sagt, er möge bitte aufhören, einem das Leben schwer zu machen, es wird sehr oft dazu kommen, dass derjenige es einfach nicht einsieht oder sich sogar im Recht sieht(siehe James Dean).
Was also wäre dein konkreter Vorschlag, wie sollte man dann mit dem Problem umgehen?
[ChrisJumper post_id=5383027 time=1572819633 user_id=2675340]
Nun hast du denn Einblick in die KI/Neuronale Netz, die bei Valve zum Einsatz kommt? Kennst du die Trainingsdaten? Kannst du das abschätzen? Musst du da vielleicht auch blinde Technikgläubigkeit anwenden, weil fremde Software immer eine Black-Box ist?
Klar du kannst das analysieren, indem du Freunde bittest die Daten zu sammeln, oder dir ein Botnetzwerk baust welches die Daten generiert und dir zur Verfügung zu stellen. Aber es ist dann bestenfalls eine Annäherung. Wie akkurat und was dieses Netz erstellt, was du nicht selber trainiert hast kannst du als Dritter von Aussen auch nicht bewerten. Es wäre toll wenn das in den Bereich einer öffentlichen Infrastruktur geschieht, am besten verwaltet durch die Serverbetreiber oder die Community.
P.s.: Aber es ist sehr gut das du das machst und darüber schreibst, ich lese deine Posts sehr gerne.
[/quote]
Natürlich weiß ich nicht, wie genau die Algorithmen bei Valve und Co. trainiert sind. Das ist ja der Punkt. Gerade bei neuronalen Netzen gibt es ohnehin keinerlei konkrete algorithmische Bestimmtheit. Heißt: Es fehlt dort der Zusammenhang zwischen den Regeln, die zu der Schlussfolgerung führen und dem tatsächlichen Ergebnis. Der einfache Grund ist: Es gibt gar keinen Zusammenhang. Neuronale Netze finden anhand der Daten eine (möglichst) optimale mathematische Formel um deren Prämisse(sprich die Trainingsdaten) möglichst gut zu erfüllen. Das heißt aber, dass die Formel selbst nichts aussagt. Nur, dass bei entsprechendem neuen Input, z.B. eine Kategorisierung vorgenommen wird.
Was ich sagen will: Das wir nicht genau wissen, WIE die Algorithmen intern funktionieren, ist z.T. systemisch bedenkt. Aber ich will deinen Einwand damit nicht wegwischen. Du hast einen wichtigen Punkt genannt: Natürlich werden sich Unternehmen nicht um Transparenz bemühen und ihre Algorithmen daher unter Verschluss halten.
Allerdings frage ich mich, warum es nicht dennoch eine indirekte Kontrolle geben sollte? Man sieht ja letzendlich was genau der Algorithmus macht. Man kennt deren Ablauf nicht, deren konkrete Einstellungen, aber man merkt ja ob so ein System wie Minerva seine Arbeit richtig macht oder nicht. Nämlich unter Verwendung von statistischen Bewertungsmethoden, wie etwas das von mir angesprochenen Matrix-Schema("false positive", "true positive", "false negative", "true negative"). Das heißt, wenn so ein Algorithmus "Amok" läuft und harmlose Sachen sperrt, dann schaut dort immer noch ein Mensch drauf der sagt: "Halt moment mal? So geht es aber nicht!"
Ich hab persönlich daher keine Angst vor solchen Algorithmen, solange sichergestellt ist, dass immernoch Menschen darauf schauen und die Performance bewerten.
Bei mir wäre die Grenze erreicht, wenn KI und Algorithmen selbstständig bewerten und keinerlei Überprüfung von außen mehr stattfindet. IBM hat daher z.B. sich selbst ein Konzept auferlegt, dass sie nur "unterstützende KIs" einsetzen, also KIs, die menschliche Arbeiter bei ihren Aufgaben unterstützen, nicht aber KIs die eigenständig Entscheidungen treffen und auf Basis dessen Aktionen auslösen. Einfaches Beispiel: Eine KI im Kühlschrank könnte dein Kaufverhalten analysieren und sagen: "Du isst zu wenig Vitamine, ich empfehle dir mehr Gemüse, etc. zu kaufen." Oder die KI könnte das selbsständig analysieren und einfach bei Amazon 5 Porree-Stangen bestellen. Letzteres wäre dann eben etwas, dass mMn zu weit geht. Ersteres wäre hingegen etwas, dass ich für die Zukunft begrüßen würde. Wie siehst du das?
MfG Ska
P.S: Freut mich, dass du meine Post gerne liest. Kann ich nur zurückgeben