• einkorn@feddit.org
    link
    fedilink
    arrow-up
    21
    ·
    14 days ago

    Außerdem sei es kaum möglich, solche Datenmengen nach inhaltsgleichen Beiträgen zu durchsuchen und einzuschätzen, ob die nun identisch oder “kerngleich” seien und deshalb gelöscht werden müssen oder nicht. Dafür bräuchte es eine händische Überprüfung von Facebook-Mitarbeitern.

    “Too big to fail function”? Meta ist also mittlerweile zu groß, um sich selbst im Griff zu haben? Dann müssten wir das Unternehmen doch einfach mal in handlichere Portionen aufteilen …

    • gajustempus@feddit.org
      link
      fedilink
      arrow-up
      7
      arrow-down
      1
      ·
      14 days ago

      Wenn man bedenkt, wie gut KI bei der Erkennung von Inhalten ist und wie schnell bspw einige Inhalte, die Amis nicht so mögen, entweder ausgeblendet, gesperrt oder gelöscht werden, ist die Ausrede wirklich SEHR flach und durchschaubar…

      • Saleh@feddit.org
        link
        fedilink
        arrow-up
        2
        ·
        14 days ago

        Ist auch Quatsch. Youtube kann seit mindestens 10 Jahren ziemlich gut Copyright-Inhalte auf Audio- und Bildspuren erkennen.

        Und für das Erkennen von Falschzitaten braucht es dann nur ne Texterkennung und einen automatischen Abgleich. Das wird dann nur schwierig, wenn es um so Beiträge wie “dieses Bild zirkuliert gerade, aber es ist Falschinformation” geht. Es braucht also noch mal eine menschliche Endkontrolle, respektive bei Einspruch.

        • gajustempus@feddit.org
          link
          fedilink
          arrow-up
          3
          ·
          14 days ago

          Ist noch nicht einmal nötig - ich habe schon genau sowas mal ChatGPT vorgeschmissen und es wurde nicht nur richtig erkannt, sondern auch auf Anhieb korrekt eingeordnet. Selbst Satire erkennt das Ding mittlerweile sicher