• Haupt
  • Sonstiges
  • Die KI kommt den Daten aus Star Trek: TNG unheimlich näher, jetzt, da sie weiß, ob Sie ihr vertrauen können oder nicht

Die KI kommt den Daten aus Star Trek: TNG unheimlich näher, jetzt, da sie weiß, ob Sie ihr vertrauen können oder nicht

Welcher Film Zu Sehen?
 
>

Es ist möglicherweise nicht so selbstbewusst wie Data from Star Trek: TNG (noch), zumal dieser Droide sich besser um eine Katze kümmern könnte als manche Menschen, aber die KI hat jetzt den Punkt erreicht, an dem sie erkennt, dass sie nicht vertrauenswürdig ist.



Was heißt jetzt tiefe beweiskräftige Regression hat das Selbstbewusstsein der KI nivelliert. Es wird wissen, wann es eine höhere Wahrscheinlichkeit hat, einen Vorhersagefehler zu machen, basierend auf der Bewertung der Zuverlässigkeit der Daten, die es betrachtet. Zukünftige Vorhersagen sind wahrscheinlicher, wenn sie von gründlicheren und genaueren Daten beeinflusst werden. Das Gegenteil bedeutet, dass wahrscheinlich Dinge schief gehen werden – und die KI kann das spüren. Wenn es seine Gewissheit über etwas einschätzt, wird diese Gewissheit je nach den Daten, die ihm zugeführt werden, steigen und fallen. Die KI kann dann Risiken oder Unsicherheiten mit einer Genauigkeit von 99 % bestimmen.

Es scheint, dass sogar Picard beeindruckt wäre – aber warten Sie. Es gibt nur einen Nachteil bei selbstbewussten Robotern, nämlich dass 99% keine vollständige Sicherheit bieten, egal wie nah es ist. Ein Rückgang von nur 1 % könnte in potenziell lebensbedrohlichen Szenarien eine Katastrophe bedeuten, vom Fahren eines autonomen Autos bis zur Durchführung von Operationen. Gruselig.







Während die [tiefe Beweisregression] gegenüber bestehenden Ansätzen mehrere Vorteile bietet, bestehen ihre Haupteinschränkungen darin, den Regularisierungskoeffizienten abzustimmen und nicht irreführende Beweise bei der Kalibrierung der Unsicherheit effektiv zu entfernen. said MIT Ph.D. student Alexander Amini , der eine Studie leitete, die er nächsten Monat auf der NeurIPS-Konferenz vorstellen wird.

Was Amini und sein Team geschafft haben, ist immer noch ziemlich bemerkenswert. Bisher war der Einsatz von KI zur Schätzung von Unsicherheit nicht nur teuer, sondern viel zu langsam für Entscheidungen, die in Sekundenbruchteilen getroffen werden müssen. Neuronale Netze können so groß sein, dass es ewig dauern kann, bis sie eine Antwort berechnen, und das Warten, um das Vertrauensniveau zu erfahren, wäre zu lang, um sich die Mühe zu machen. Es wäre sinnlos, so etwas für sich selbst zu verwenden -fahrendes Auto, das sofort wissen muss, wo es abbiegen muss. Der Prozess wurde im Schnelldurchlauf durchgeführt durch tiefe Beweisregression. Dieses neuronale Netz muss nur einmal ausgeführt werden, um den Grad der Unsicherheit herauszufinden.

Durch das Schätzen der Unsicherheit in einem Modell, das die KI bereits gelernt hat, kann sie uns ungefähr sagen, wie groß die Fehlertoleranz ist. Die KI verwendet Beweise, um ihre Schätzung zu untermauern. Diese Evidenz umfasst jede Unsicherheit, die entweder in den gerade analysierten Daten des neuronalen Netzes lauert, oder in seinem Selbstbewusstsein, wie sicher es in seiner eigenen Entscheidung ist. Amini und sein Team testeten die Methode der Deep Evidence Regression, indem sie die KI trainierten, die Tiefe jedes Pixels in einem Bild zu schätzen. Die Tiefenwahrnehmung kann Leben oder Tod bei einer Operation bedeuten, bei der ein Tumor entfernt werden muss, der sich tief im Körper befindet und sonst schwer zu sehen ist.

Die KI war meistens genau, aber es hat vermasselt einmal wurde es mit Bildern gefüttert, die schwerer zu merken waren. Immerhin war sie konsequent: Wenn sie mit Bildern konfrontiert wurde, die ihr Schwierigkeiten machten, würde sie das Team unbedingt über ihre Unsicherheit informieren. Seine bestimmte Fehlerquote kann Forschern zumindest beibringen, wie man dieses Modell verbessern kann. Seine Fähigkeit, mit Photoshop bearbeitete Bilder zu erkennen, eröffnet auch die Möglichkeit, Deepfakes zu erkennen. Der Mensch muss sich nur bewusst sein, dass dieses Robotergehirn immer noch fehlbar ist und wir ihm genauso wenig vertrauen können wie sich selbst.

Wir glauben, dass weitere Untersuchungen gerechtfertigt sind, um alternative Wege zur Entfernung nicht irreführender Beweise zu finden, Amini sagte .

Das heißt, eine KI, die mit einer tiefen beweiskräftigen Regression denken kann, ist ziemlich zuverlässig, solange das Ergebnis einer falschen Antwort nicht tödlich wäre.