DeepL:
Bei nachrichtendienstlichen Tätigkeiten erfolgt jeglicher Umgang mit privaten Informationen in Übereinstimmung mit dem vierten Verfassungszusatz, dem National Security Act von 1947 und dem Foreign Intelligence and Surveillance Act von 1978, der Executive Order 12333 sowie den geltenden Richtlinien des Verteidigungsministeriums, die einen definierten ausländischen nachrichtendienstlichen Zweck vorschreiben.


Das Grundproblem ist doch ein ganz anderes. Klar können Leute wie du und ich das einschätzen und Wege finden, das irgendwie zum Laufen zu kriegen. Aber das ist überhaupt nicht mein Punkt und das habe ich auch versucht darzustellen. Der Punkt ist, dass diese Chatbots ganz normalen Leuten als allwissendes Universalwerkzeug verkauft werden und diese Normalos überhaupt keine Chance haben den Output richtig einzuschätzen und die entsprechenden Schlüsse zu ziehen. Darüber hinaus unternehmen diese Anbieter auch nichts, um die Nutzer im Umgang mit LLMs zu schulen (ausser dem winzigen Disclaimer dass die Informationen falsch sein können am Ende der Seite). Stattdessen wird die Wunderwelt der künstlichen Intelligenz gepredigt.
Deine Argumentation “das ist ein Bedienproblem” zieht ab der Stelle nicht mehr wo Dinge als etwas verkauft werden was sie nicht sind. So zu tun als wäre ein LLM in irgendeiner Weise intelligent (und das tun ausnahmslos alle, die “AI” anbieten) ist absolut fahrlässig. Und aus dieser Perspektive betrache ich das eben auch wenn ich einen Chatbot teste.
Natürlich ist es kein Universalwerkzeug. Deswegen bauen ja Startups Layer um Layer um das eigentlich Model herum, damit es eben immer einfacher für “Normalos” nutzbar wird. Merkt man daran, dass die Firmen die Modelle eben gezwungen haben Quellen herauszusuchen (Perplexity), einen Plan zu befolgen (Thinking Mode), MCPs anzubieten (Context7), etc. Ich hoffe (und vermute es ehrlich gesagt auch), dass sich die Modelle bald immer mehr Kontext selber holen werden.
Es sind halt Werkzeuge, die aber nun mal unglaublich mächtig sind. Meine Aussage war hautpsächlich auf das hier bezogen: “Frage mich aber, wie Menschen solche Chatbots ernsthaft produktiv nutzen wollen”. Das ist total möglich, wenn man versteht, wie sie funktionieren und merkt, dass man eben zusätzlichen Kontext geben muss.