DeepL:

Bei nachrichtendienstlichen Tätigkeiten erfolgt jeglicher Umgang mit privaten Informationen in Übereinstimmung mit dem vierten Verfassungszusatz, dem National Security Act von 1947 und dem Foreign Intelligence and Surveillance Act von 1978, der Executive Order 12333 sowie den geltenden Richtlinien des Verteidigungsministeriums, die einen definierten ausländischen nachrichtendienstlichen Zweck vorschreiben.

  • sp3ctre@feddit.org
    link
    fedilink
    arrow-up
    20
    ·
    18 hours ago

    Eigentlich müsste bereits jeder wissen, dass quasi alles was die Amis in ihren Clouds haben, potentiell von der Regierung verwendet werden kann. Die haben’s mit Datenschutz noch nie so wirklich gehabt.

    Aber trotzdem ein guter Wake-Up-Call!

  • it_depends_man@lemmy.world
    link
    fedilink
    arrow-up
    10
    ·
    19 hours ago

    Ich verstehe die Aufregung nicht.

    Es gab vorher den CLOUD act, es ist ein amerikanisches Unternehmen und die ganzen Geschichten mit den geheimen NSA Surveillance Courts gab es vorher auch.

    Alle Daten die man an ChatGPT geschickt hat (oder Anthropic) sind immer auch Infos an Geheimdienste und Militär der USA.

    Und selbst wenn (!) sich eine der Firmen weigern sollte, können die immernoch enteignen und sich die Daten trotzdem holen.

    (Gleiche Situation wie bei reddit, Facebook, twitter, myspace, tiktok etc. pp.)

    Es hat sich faktisch nichts geändert. Weiß nicht warum man das vorher benutzt hat wenn das der Auslöser ist um es nicht mehr zu benutzen. Hört aber ruhig auf es zu benutzen, das ist sicher gut, die Motivation finde ich halt seltsam.

    • bennypr0fane@discuss.tchncs.de
      link
      fedilink
      arrow-up
      3
      ·
      16 hours ago

      Ich finde die Motivation ganz nachvollziehbar, aber nicht, dass man bisher schon jahrelang bedenkenlos sämtliche amerikanischen Plattformen und Dienste genutzt hat. Spannende Frage, wie lange nutzt OP schon GMail (und hört wie lange nicht damit auf)?

  • A_norny_mousse@piefed.zip
    link
    fedilink
    Deutsch
    arrow-up
    1
    ·
    19 hours ago

    Ist das teil des sog. Cloud Acts?

    Oder haben die jetzt wriklich den Ausnahme/Kriegszustand erklärt?

    So oder so, es überrascht mich immer wieder dass europäische Regierungen und Grossunternehmen die Zeichen der Zeit einfach nicht sehen wollen und auch bei Neuanschaffung nach wie vor auf US Provider setzen.

    • D_a_X@feddit.orgOP
      link
      fedilink
      arrow-up
      3
      ·
      19 hours ago

      Auf Mastodon hat es @lazou@kanoa.de etwas ausführlicher dargestellt:

      1. Fourth Amendment (Vierter Verfassungszusatz der USA):

      Schützt US-Bürger:innen vor willkürlichen Durchsuchungen und Beschlagnahmungen durch den Staat. Aber: Für Ausländer:innen (also Nutzer:innen außerhalb der USA) gilt dieser Schutz nicht oder nur eingeschränkt. Das bedeutet, dass Daten von Nicht-US-Bürger:innen leichter für Überwachungszwecke genutzt werden können, wenn ein “ausländischer Nachrichtendienstzweck” (z. B. “nationale Sicherheit”) vorliegt.

      1. Foreign Intelligence Surveillance Act (FISA, 1978):

      Ermöglicht geheime Überwachung von Ausländer:innen (auch außerhalb der USA), wenn ein Verdacht auf Spionage, Terrorismus oder andere Bedrohungen der nationalen Sicherheit besteht. Unternehmen wie OpenAI können dazu verpflichtet werden, Daten herauszugeben – oft ohne dass Betroffene davon erfahren.

      1. Executive Order 12333:

      Eine präsidiale Anordnung, die US-Geheimdiensten (wie NSA oder CIA) weitreichende Befugnisse für die Sammlung und Analyse von Daten einräumt – ohne richterliche Genehmigung, wenn die Daten im Ausland erhoben werden.

      1. National Security Act & DoD-Direktiven:

      Diese regeln die Zusammenarbeit zwischen Militär und Nachrichtendiensten. Der Zusatz “requiring a defined foreign intelligence purpose” bedeutet, dass Daten nur dann genutzt werden dürfen, wenn ein konkreter ausländischer Nachrichtendienstzweck (z. B. Aufklärung über feindliche Staaten) vorliegt. Allerdings ist diese Definition oft dehnbar und wird geheimdienstlich weit ausgelegt.

      Für nicht US-Bürger:

      ➡️ Kein verfassungsmäßiger Schutz vor Datenzugriff durch US-Behörden.
      ➡️ OpenAI könnte (geheim) dazu verpflichtet werden, Chatverläufe, IP-Adressen oder Metadaten an Geheimdienste weiterzugeben – ohne dass du davon erfährst.
      ➡️ Selbst wenn OpenAI selbst keine aktive Überwachung betreibt, müssen sie auf gerichtliche oder geheimdienstliche Anfragen reagieren (ähnlich wie bei Cloud-Diensten wie Microsoft oder Google).

      • macniel@feddit.org
        link
        fedilink
        arrow-up
        3
        ·
        19 hours ago

        Ja gut aber die zusammengefaasten Punkte gelten seit dem CLOUD Act ohnehin. Also ändert sich nichts.

    • sp3ctre@feddit.org
      link
      fedilink
      arrow-up
      1
      ·
      13 hours ago

      Hab’ mal einen Mistral-Account gemacht. Wird aber nur gefüttert mit Daten, die ich verlieren darf.

    • RedstoneValley@sh.itjust.works
      link
      fedilink
      arrow-up
      3
      ·
      19 hours ago

      Ich habe Mistral gerade mal ausprobiert. Ich teste Nischenwissen, über welches wenig im Netz verfügbar ist, und dafür nehme ich gern die Assembly-Programmiersprache IC10 im Spiel “Stationeers”. Das Ergebnis war einfach nur unterirdisch schlecht, denn der gesamte Output war von Anfang bis Ende komplett halluziniert. Kompletter Unfug. Es wurden Scriptbeispiele genannt, die so aussahen wie Javascript-Pseudocode und absolut nichts mit IC10 zu tun hatten. Auf den Hinweis, dass es sich bei IC10 um eine MIPS-orientierte assembly language handelt kam dann die “Korrektur”, welche mit erfundenen MIPS-ähnlichen Instructions irgendwelchen weiteren kompletten Unsinn dargestellt hat. Darüber hinaus wurden noch Mechaniken erfunden, die es im Spiel überhaupt nicht gibt.

      Ich bin sowieso kritisch eingestellt, was die Nutzung von LLMs als “Universalwerkzeug” angeht, und habe meinen ChatGPT-Account bereits gekündigt. Frage mich aber, wie Menschen solche Chatbots ernsthaft produktiv nutzen wollen. Ein System, welches Wissenslücken mit Lügen im selbstbewusstem Tonfall füllt ist einfach absolut nicht hilfreich. Man könnte natürlich argumentieren, dass Chatbots für andere Wissensbereiche (z.B. Python) eine wesentlich bessere Datengrundlage haben und das dann besser funktioniert. Aber kann man einem System auch nur halbwegs vertrauen wenn es sich bei Wissenslücken um Kopf und Kragen halluziniert? Ich hätte da Bedenken. Bei Fragen mit einer besseren Datengrundlage sind die Fehler dann subtiler und schwieriger zu finden, aber das Grundprinzip LLM bleibt ja das selbe.

      • bennypr0fane@discuss.tchncs.de
        link
        fedilink
        arrow-up
        2
        ·
        16 hours ago

        Alle haben die wahnhafte Idee, dass die LLMs “immer besser” werden, wenn man nur genug Geld hineinsteckt. Dass der Anteil an Bullenscheiße, den sie produzieren, immer weniger wird - aber es inzwischen schon mal cool ist, sie unser ganzes Leben steuern zu lassen, weil ist ja “gratis” (gratis Bullenscheiße). OpenAI hat selbst ein Paper veröffentlicht, in dem gezeigt wird, dass LLMs einfach nie in der Lage sein können, Bullenscheiße-frei zu arbeiten, weil diese Technologie das einfach nicht kann. Ganz grundsätzlich nicht. Ich suche noch nach einer passenden Analogie. Wir müssen einfach aufhören, den Bots Wissensfragen zu stellen und es verbieten, dass man die dafür vermarktet

      • primeapple@feddit.org
        link
        fedilink
        arrow-up
        4
        arrow-down
        4
        ·
        17 hours ago

        Halluzinationen sind ein Problem, klar. Sich jetzt aber hinzustellen und die produktive Nutzung dieser Dinger in Frage zu stellen ist eine wilde Aussage. Dein Beispiel ist ein grundlegendes Bedienproblem. Paste das Manual für IC10 halt in den Prompt mit rein und die Beispiele werden auf einmal funktionieren.

        • RedstoneValley@sh.itjust.works
          link
          fedilink
          arrow-up
          5
          ·
          16 hours ago

          Das Grundproblem ist doch ein ganz anderes. Klar können Leute wie du und ich das einschätzen und Wege finden, das irgendwie zum Laufen zu kriegen. Aber das ist überhaupt nicht mein Punkt und das habe ich auch versucht darzustellen. Der Punkt ist, dass diese Chatbots ganz normalen Leuten als allwissendes Universalwerkzeug verkauft werden und diese Normalos überhaupt keine Chance haben den Output richtig einzuschätzen und die entsprechenden Schlüsse zu ziehen. Darüber hinaus unternehmen diese Anbieter auch nichts, um die Nutzer im Umgang mit LLMs zu schulen (ausser dem winzigen Disclaimer dass die Informationen falsch sein können am Ende der Seite). Stattdessen wird die Wunderwelt der künstlichen Intelligenz gepredigt.

          Deine Argumentation “das ist ein Bedienproblem” zieht ab der Stelle nicht mehr wo Dinge als etwas verkauft werden was sie nicht sind. So zu tun als wäre ein LLM in irgendeiner Weise intelligent (und das tun ausnahmslos alle, die “AI” anbieten) ist absolut fahrlässig. Und aus dieser Perspektive betrache ich das eben auch wenn ich einen Chatbot teste.

          • primeapple@feddit.org
            link
            fedilink
            arrow-up
            1
            arrow-down
            1
            ·
            9 hours ago

            Natürlich ist es kein Universalwerkzeug. Deswegen bauen ja Startups Layer um Layer um das eigentlich Model herum, damit es eben immer einfacher für “Normalos” nutzbar wird. Merkt man daran, dass die Firmen die Modelle eben gezwungen haben Quellen herauszusuchen (Perplexity), einen Plan zu befolgen (Thinking Mode), MCPs anzubieten (Context7), etc. Ich hoffe (und vermute es ehrlich gesagt auch), dass sich die Modelle bald immer mehr Kontext selber holen werden.

            Es sind halt Werkzeuge, die aber nun mal unglaublich mächtig sind. Meine Aussage war hautpsächlich auf das hier bezogen: “Frage mich aber, wie Menschen solche Chatbots ernsthaft produktiv nutzen wollen”. Das ist total möglich, wenn man versteht, wie sie funktionieren und merkt, dass man eben zusätzlichen Kontext geben muss.

  • glasratz@feddit.org
    link
    fedilink
    arrow-up
    0
    ·
    21 hours ago

    Allein, dass sie den inoffiziellen Namen des amerikanischen Verteidigungsministeriums benutzen, ist schon ein Grund zu gehen.

      • glasratz@feddit.org
        link
        fedilink
        arrow-up
        1
        ·
        11 hours ago

        Nein. Es heißt offiziell weiter Department of Defense, nur Trumps Mörderbande nennt es Department of War. Und OpenAI buckelt auch hier willfährig mit seinem “Our agreement with the Department of War”.

      • glasratz@feddit.org
        link
        fedilink
        arrow-up
        1
        ·
        11 hours ago

        So heißt es auch offiziell noch, da Trumps Namensänderung nicht offiziell ist. Der Artikel heißt allerdings “Our agreement with the Department of War”.