Atomkraft für KI

  • 162 Antworten
  • Letztes Antwortdatum
bananensaft schrieb:
Die KI generiert kein Geld.
Das immerhin unterscheidet die KI vom letzten Run, dem Cryptogeld. :)
 
bananensaft schrieb:
Doch, natürlich. Und vielleicht kann da KI helfen, aber dafür werden die AKWs nicht gebaut. Der aktuelle Hype, den openAI/chatGPT ausgelöst hat - dafür sollen AKWs gebaut werden.
Woher weißt du das?
Übrigens ist ChatGPT durchaus auch ein Fortschritt...

bananensaft schrieb:
Naja, wenn die Geld verdienen muss es jemand bezahlen. Die KI generiert kein Geld.
Auch Pharmafirmen sind nicht die Caritas. Und trotzdem notwendig.
 
Zuletzt bearbeitet:
bananensaft schrieb:
Bei KI weiss niemand, wie man damit Geld verdienen soll.

Das stimmt nicht. In meinem Bereich (Patentwesen) wird gerade sehr viel mit KI experimentiert und es gibt auch schon gute Tools, die KI-basiert recherchieren und sogar schon Bescheidserwiderungen und Patentanmeldungen ausarbeiten. Zunächst wird also mit diesen Tools Geld verdient, um dann zunehmend Menschen zu ersetzen. Überhaupt sehe ich hier sehr gute Möglichkeit im Bereich Jura und überall, wo es primär darum geht, Entscheidungen aufgrund von angehäuftem Wissen zu fällen. Zudem ist die Prognose, dass sich die KI in den nächsten Jahren exponentiell entwickeln wird. Da ist noch sehr viel Luft nach oben. Allerdings sind die Juristen ja auch nicht doof und verbieten nun zunehmend wieder die Anwendung von KI in Gerichtsverhandlungen.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: bananensaft
Mein Problem ist, dass man im Prinzip ständig liest: wir lösen das mit KI, wie prx ja beispielhaft schon mit der Polizei geschrieben hat. Und das ist ein Problem. Meiner Meinung nach. Und warum hab ich auch schon geschrieben.

Das es sinnvolle Einsatzgebiete gibt, bestreite ich nicht.
Beiträge automatisch zusammengeführt:

@dtp Ja, aber da sind wir dann doch im gefährlichen Bereich. Die KI trifft Entscheidungen, die keiner nachvollziehen kann. Weil der Entscheidungsweg nicht offen ist. Und entweder prüfst Du das haarklein nach oder Du vertraust der KI.
Und möchtest Du im Gerichtssaal, wo u.U. Dein Wohl und Wehe von einer Entscheidung abhängt, dass eine KI das trifft und niemand dir sagen kann warum Du jetzt verloren hast? Also eine rechtlich nachvollziehbare Gerichtsentscheidung ist das nicht.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: riognach
bananensaft schrieb:
und niemand dir sagen kann warum Du jetzt verloren hast?
Wenn man bedenkt, wie ausführlich und gut dargestellt manche KI Antworten sind, ist weniger eine fehlende Begründung das Problem. Das kriegen die KIs schon hin. Ansprechend gestaltet labern können sie. Das ist die Kernkompetenz der auf Sprachmodellen basierenden KIs. Nur könnte der Zusammenhang zwischen Urteil und Begründung schwer nachvollziehbar sein.
 
  • Danke
Reaktionen: bananensaft
bananensaft schrieb:
Und möchtest Du im Gerichtssaal, wo u.U. Dein Wohl und Wehe von einer Entscheidung abhängt, dass eine KI das trifft und niemand dir sagen kann warum Du jetzt verloren hast? Also eine rechtlich nachvollziehbare Gerichtsentscheidung ist das nicht.

Ein Urteil bedarf einer Begründung. Die muss auch die KI liefern. Zudem wird es niemals eine letztinstanzliche KI geben. Es bleibt also immer die Möglichkeit zum Einlegen von Rechtsmitteln (Einspruch, Berufung, Revision, Erinnerung, etc.).

Ich habe aber auch schon häufiger erlebt, dass die KI ihre eigenen Vorschläge bzw. Entscheidungen in Frage stellt, wenn man sie entsprechend hinterfragt. Da kann es manchmal schon genügen, sei mit dem Prompt "Bist du sicher?" in die Bredullie zu bringen. Die KI hat nämlich schon jetzt gewisse menschliche Züge (HI bzw. NI), weil sie vom Prinzip her faul ist. Vielleicht auch nur, um Strom zu sparen. ;)
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: bananensaft
dtp schrieb:
Ein Urteil bedarf einer Begründung. Die muss auch die KI liefern. Zudem wird es niemals eine letztinstanzliche KI geben. Es bleibt also immer die
Ja, aber damit weisst Du immer noch nicht, wie die KI zu der Entscheidung gekommen ist. Warum sie Urteil A aus 2020 herangezogen hat und Urteil B aus 2021 nicht. Vielleicht steht das in der Begründung drin, vielleicht nicht - keine Ahnung. Aber um das beurteilen zu können muss man beide Urteile kennen.

dtp schrieb:
Möglichkeit zum Einlegen von Rechtsmitteln (Einspruch, Berufung, Revision, Erinnerung, etc.).
Und warum nicht? Wenn ich der KI nicht 100% vertrauen kann, dann wird jeder Rechtsmittel einlegen - der es sich leisten kann - und welchen Vorteil hat die KI dann?

dtp schrieb:
Ich habe aber auch schon häufiger erlebt, dass die KI ihre eigenen Vorschläge bzw. Entscheidungen in Frage stellt, wenn man sie entsprechend hinterfragt. Da kann es manchmal schon genügen, sei mit dem Prompt "Bist du sicher?" in die Bredullie zu bringen. Die KI hat nämlich schon jetzt gewisse menschliche Züge (HI bzw. NI), weil sie vom Prinzip her faul ist. Vielleicht auch nur, um Strom zu sparen. ;)
Aber das macht es ja nicht besser. Viel Energie verbraten für nix ;)
 
dtp schrieb:
Die KI hat nämlich schon jetzt gewisse menschliche Züge
Frag die KI nach einer Berechnung im elektronischen Bereich, die von den meisten Menschen falsch beantwortet wird. Als Ergebnis gibt es ebendiese falsche Antwort, weil die KI die Frage mit der Masse der eingepflegten Daten assoziiert, und die Mehrheit gewinnt. Erst eine Umformulierung oder Nachfrage fügt Skepsis in die Frage mit ein, worauf erst dann mit jenen Daten assoziiert wird, die sich auch mit dem typischen Fehler beschäftigen. Und dann stimmt es.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: bananensaft
bananensaft schrieb:
Ja, aber damit weisst Du immer noch nicht, wie die KI zu der Entscheidung gekommen ist. Warum sie Urteil A aus 2020 herangezogen hat und Urteil B aus 2021 nicht. Vielleicht steht das in der Begründung drin, vielleicht nicht - keine Ahnung. Aber um das beurteilen zu können muss man beide Urteile kennen.

Das weißt du bei einem menschlichen Entscheider auch nicht unbedingt. Der kennt vielleicht Urteil B gar nicht. Allerdings haben wir hier in Deutschland kein Case Law. Insofern ist das noch etwas anders als z.B. in den USA.
 
@prx Aber dann muss wissen, dass die mehrheitsantwort falsch ist, oder? Sonst kann ich das ja nicht hinterfragen. Korrekt?
 
bananensaft schrieb:
Und warum nicht? Wenn ich der KI nicht 100% vertrauen kann, dann wird jeder Rechtsmittel einlegen - der es sich leisten kann - und welchen Vorteil hat die KI dann?

Auch das ist jetzt schon so. Warum traust du einem ggf. befangenen Richter mehr als einer neutralen KI?

Ich finde auch immer diese Ethik-Diskussion müßig, ob die KI ein Fahrzeug bei einem anstehenden Verkehrsunfall eher in eine Gruppe Erwachsener lenken soll oder ob sie als Alternative lieber ein einzelnes Kind überfährt. Was würde denn ein Mensch in derselben Situation machen? Hat der diesen Konflikt da etwa nicht? Und wenn man dann begegnet, dass der Mensch das einfach intuitiv entscheiden würde, dann kann man die KI ja auch würfeln lassen.
 
Zuletzt bearbeitet:
@bananensaft Man kann versuchen, die Skepsis von vorneherein mit zu berücksichtigen. Dazu muss man nur wissen, dass KIs gerne das Blaue vom Himmel lügen, muss nichts vom Thema verstehen.

Allerdings könnte es sein, dass man es dann mit Antworten zu tun kriegt, die aus dem Bereich notorischer Gegendenstromschwimmer und Verschwörungstheoretiker stammt und falscher ist, als ohne die Skepsis. Es soll ja schon vorgekommen sein, dass die Mehrheit recht hat. :)
 
Zuletzt bearbeitet:
prx schrieb:
Dazu muss man nur wissen, dass KIs gerne das Blaue vom Himmel lügen, muss nichts vom Thema verstehen.

Donald Trump ist wohl aktuell das beste Beispiel für eine humane KI. Also human jetzt nicht im Sinne von menschlich, sondern von in einem menschlichen Körper wohnend. ;)

Theoretisch wäre es möglich, die KI ausschließlich mit Faktenwissen zu füttern. Nur leider ist das nicht wirklich einfach, dass sie selbständig zwischen Wahrheit und Lüge unterscheiden kann. Außer man schafft eine Art isolierter Fakten-KI, die nur mit Fachliteratur gefüttert wird.

Es ist ein schwieriges Thema. Die KI ist die Atomkraft der Gegenwart. Ob Segen oder Fluch, wird sich zeigen. Ich vermute beides.
 
Zuletzt bearbeitet:
@dtp Das ist natürlich richtig. Aber wenn Dein Anwalt das kennt, kann er nachfragen und Du bekommst die Herleitung. Bei ner KI nicht.

Und wer sagt, dass ich einem Richter mehr traue? Mein Problem ist, dass die KI gerne als Allheilmittel gesehen wird und die Menschen dazu neigen dem Computer einfach zu vertrauen, siehe Navi. Und damit geht die Gefahr einher.

dtp schrieb:
Ich finde auch immer diese Ethik-Diskussion müßig, ob die KI ein Fahrzeug bei einem anstehenden Verkehrsunfall eher in eine Gruppe Erwachsener lenken soll oder ob sie als Alternative lieber ein einzelnes Kind überfährt. Was würde denn ein Mensch in derselben Situation machen? Hat der diesen Konflikt da etwa nicht?
Nein, hat er nicht. Bei der Diskussion geht es darum, dass ein Computer in der Lage wäre eine "bewusste" Entscheidung zu treffen, weil er schnell genug ist. Ein Mensch ist da in Panik und Stress und trifft keine rationale Entscheidung mehr -> Schicksal. Ein Computer tut das immer, der ist deterministisch unterwegs und natürlich trifft er in dieser Situation eine "bewusste" Entscheidung.
 
dtp schrieb:
Hat der diesen Konflikt da etwa nicht?
In einer solchen Situation wird nicht gedacht, sondern reflexhaft reagiert.

Wenn ein Pilot aus einer unerwarteten Krisensituation nur heraus kommt, indem er genau das Gegenteil dessen tut, was jeder Pilot in der Lage automatisch macht, geht das wahrscheinlich schief. Ahnt er hingegen schon vorher, was geschehen könnte, überlegt vorher die Alternativen, kann es besser ablaufen. Beides sind konkrete Fälle.

Aus diesem Grund werden mögliche Szenarien geübt und geübt, damit die Reaktion ohne nüchternes Nachdenken erfolgen kann. Das wird bei KIs ähnlich sein, aber ohne Panik, ohne typische Einengung der Wahrnehmung. Sie kann mit Situationen umgehen, die irgendwann irgendwo vorkamen und dokumentiert und in die KI eingepflegt wurden. Dieser Nürnberger Trichter funktioniert bei KIs vermutlich besser.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: bananensaft
Regentanz schrieb:
Wie gesagt: Richtig lesen. Da du nicht mal das hinkriegst, ist jede weitere Diskussion mit dir eigentlich ziemlich sinnlos.
Die Seite war aus Österreich (sieht man an der Flagge eigentlich sofort). Ich glaube nicht, dass dort auch Lemke aktiv ist...
Wenn du mit den Analysen nicht zufrieden bist, darfst du gerne entsprechende andere Gutachten verlinken. Findest du keine? Na dann.
Lemke ist Dort nicht aktiv , aber Leonore Gewessler die der österreichischen Partei Die Grünen – Die Grüne Alternative angehört. Sie ist auch stellvertretende Bundessprecherin der Grünen. Stellvertretende Klubobfrau des Grünen Klubs im Parlament. Mitglied des Beirats in der Grünen Bildungswerkstatt. Wie grün soll es noch sein? Grüner wird es nicht.
Doch deine Quellen kommt von den Grünen. Durch und durch. Ob es jetzt nun Deutschland oder Österreich ist. 🤷
 
  • Danke
Reaktionen: Flashlightfan
MSSaar schrieb:
Ich nehme mal stark an, dass das Zauberwort Klimaerwärmung heißt und sich alles darum dreht. In dem Zusammenhang hört man eben am meisten CO2.

Die Schwierigkeite ist, den Spagat zwischen Co2 Ausstoß und Erhaltung des Wohlstands hinzubekommen, während andere Länder sich bekämpfen oder vollends darauf pfeifen.

Ich hBe das Gefühl Umweltschutz ist nur noch Co2, Müll, Mikroplastik und Co, scheinen wohl "gelöste" Probleme zu sein.
Beiträge automatisch zusammengeführt:

dtp schrieb:

Die Frage ist kann KI neutral sein, oder so "neutral" wie der, welcher sie programmiert hat?
 
Zuletzt bearbeitet:
KI ist nicht neutral, wie auch. Die Trainingsdaten sind es ja auch nicht, also wie kann es da eine KI sein. Wenn überproportional Schwarze verurteilt werden, wird es ein KI Richter auch tun. Das rauszufiltern ist nicht so einfach
 
  • Danke
Reaktionen: F-O-X
F-O-X schrieb:
Die Frage ist kann KI neutral sein, oder so "neutral" wie der, welcher sie programmiert hat?
KI im aktuellen Sinn der Sprachmodelle wird nicht inhaltlich programmiert. Programmiert werden Methoden, mit Unmengen an Daten umzugehen. Richtungsvorgabe kann über die Auswahl der Daten erfolgen, mit denen sie dann gefüttert wird. Das ist aber keine Programmierung im IT Verständnis.
Beiträge automatisch zusammengeführt:

bananensaft schrieb:
Ein Computer tut das immer, der ist deterministisch unterwegs
Hochkomplexe Systeme mögen pro forma deterministisch sein, weil die zugrundeliegende Technik es ist. Das hilft einem aber nicht weiter. Sobald sie nicht statisch bleiben, sondern sich durch die Interaktion selbst verändern, können sie undurchschaubar und erratisch werden, effektiv unwiederholbar.
 
Zuletzt bearbeitet:
  • Danke
Reaktionen: bananensaft
bananensaft schrieb:
Ja, aber damit weisst Du immer noch nicht, wie die KI zu der Entscheidung gekommen ist.
Erstens entscheidet die KI nicht, sie kann nur Argumente liefern.
Und zweitens weiß man schon, wie die KI zu einem Ergebnis kommt, da sie natürlich alle Quellen anführt.

bananensaft schrieb:
Den gibt es nicht.
Beiträge automatisch zusammengeführt:

Andrea6 schrieb:
Doch deine Quellen kommt von den Grünen. Durch und durch.
Du kannst gerne eine Quelle anführen, die das Gutachten widerlegt.
 
Zuletzt bearbeitet:

Ähnliche Themen

ses
Antworten
1
Aufrufe
114
iieksi
iieksi
MSSaar
  • MSSaar
Antworten
2
Aufrufe
192
JJSaar
JJSaar
MSSaar
  • MSSaar
Antworten
14
Aufrufe
302
bananensaft
B
Zurück
Oben Unten