AW: Künstliche Intelligenz
Zitat:
Zitat von
Ansuz
Ja, sowas geschieht auch leicht mit den Metadaten von Bildern, oder oftmals Artikfakten in Bildern, die der Mensch nicht wahrnimmt. Bei WIRED gab es einen sehr guten Artikel dazu, wie man Bilder in dieser Hinsicht gut manipulieren kann. Prinzipiell ist die aber primär eine Mahnung, die Trainingsdaten der KI sehr bewusst auszuwählen. (Microsofts "Nazi Bot" ist ein gutes Beispiel was passiert, wenn diese Kontrolle zu locker ist.)
Letztendlich ist diese Tendenz m.E. aber von Vorteil, weil die KI Zusammenhänge findet, die von Menschen vernachlässigt werden.
AW: Künstliche Intelligenz
Zitat:
Zitat von
Haspelbein
Ja, sowas geschieht auch leicht mit den Metadaten von Bildern, oder oftmals Artikfakten in Bildern, die der Mensch nicht wahrnimmt. Bei WIRED gab es einen sehr guten Artikel dazu, wie man Bilder in dieser Hinsicht gut manipulieren kann. Prinzipiell ist die aber primär eine Mahnung, die Trainingsdaten der KI sehr bewusst auszuwählen. (Microsofts "Nazi Bot" ist ein gutes Beispiel was passiert, wenn diese Kontrolle zu locker ist.)
Letztendlich ist diese Tendenz m.E. aber von Vorteil, weil die KI Zusammenhänge findet, die von Menschen vernachlässigt werden.
Sie werden nicht vernachlässigt. Sie sind für Erinnerung oder Wiedererkennung irrelevant.
Das Gehirn funktioniert nicht mit Algorithmen. Es speichert Informationen über zigtausendfache Verknüpfung mit anderen informationen, die mit der Grundinfo ggf. überhaupt nichts zu tun haben.
Der Geruch einer Bratwurst, und zwar einer ganz bestimmten, kehrt das komplette Bild eines aus welchen Ursachen immer (zigtausende, sic!) erinnerten Lagerfeuerabends von vor 20 Jahren wieder nach oben. Wobei das Bild ja auch nicht komplett gespeichert und abgerufen wird, sondern selbst wieder aus unzähligen Fragmenten besteht die gelegentlich auch falsch zusammengesetzt werden.
(Zeugenaussagen zur Farbe eines Fluchtfahrzeugs z.B.).
Auch was Du aktuell siehst ist zum überwiegenden Teil Erinnerung, die mit Echtzeiteindrücken kombiniert werden. Z.B. der Effekt: Du suchst einen Schlüsselbund den Du zuvor auf einen Tisch gelegt hast. Er ist auch da, aber Du erkennst ihn nicht, da ist ein leerer Fleck. 5 Minuten später kommst du nochmal hin und er ist wieder da.
Ist alles noch nicht wirklich verstanden. KI wird da prinzipiell anders funktionieren.
AW: Künstliche Intelligenz
Zitat:
Zitat von
Don
Sie werden nicht vernachlässigt. Sie sind für Erinnerung oder Wiedererkennung irrelevant.
Das Gehirn funktioniert nicht mit Algorithmen. Es speichert Informationen über zigtausendfache Verknüpfung mit anderen informationen, die mit der Grundinfo ggf. überhaupt nichts zu tun haben.
Der Geruch einer Bratwurst, und zwar einer ganz bestimmten, kehrt das komplette Bild eines aus welchen Ursachen immer (zigtausende, sic!) erinnerten Lagerfeuerabends von vor 20 Jahren wieder nach oben. Wobei das Bild ja auch nicht komplett gespeichert und abgerufen wird, sondern selbst wieder aus unzähligen Fragmenten besteht die gelegentlich auch falsch zusammengesetzt werden.
(Zeugenaussagen zur Farbe eines Fluchtfahrzeugs z.B.).
Auch was Du aktuell siehst ist zum überwiegenden Teil Erinnerung, die mit Echtzeiteindrücken kombiniert werden. Z.B. der Effekt: Du suchst einen Schlüsselbund den Du zuvor auf einen Tisch gelegt hast. Er ist auch da, aber Du erkennst ihn nicht, da ist ein leerer Fleck. 5 Minuten später kommst du nochmal hin und er ist wieder da.
Ist alles noch nicht wirklich verstanden. KI wird da prinzipiell anders funktionieren.
Ich meinte nicht, dass das menschliche Hirn keine Zusammenhänge erkennt, sondern das es bei deren Erkennung recht selektiv ist. Es kombiniert Vorbehalte, Ängste und bisherige Erfahrungen bei dieser Selektion. Es gibt viele Dinge, die einem Menschen als sinnlos, oder schlicht zu riskant erscheinen, um einem Zusammenhang nachzugehen.
Wenn z.B. eine KI Go, Schach, oder Dota spielt, so sind sie generell wesentlich risikobereiter um ihren Erfolg zu maximieren. Menschen spielen generell defensiver, fast so als wäre es kein Spiel, sondern ein wirklicher Überlebenskampf.
Bei der Analyse vermengen sich die reguläre statistische Analyse und die KI. Ein beliebtes Übungsbeispiel ist die Passagierliste der Titanic. Ich habe mal eine statistische Methode (R, Recursive Partitioning) gegen ein MLP (Keras) antreten lassen. Beide Methoden zeigen Zusammenhänge auf, die einem Menschen erst einmal nicht so offensichtlich sind.
AW: Künstliche Intelligenz
Zitat:
Zitat von
Haspelbein
Ich meinte nicht, dass das menschliche Hirn keine Zusammenhänge erkennt, sondern das es bei deren Erkennung recht selektiv ist. Es kombiniert Vorbehalte, Ängste und bisherige Erfahrungen bei dieser Selektion. Es gibt viele Dinge, die einem Menschen als sinnlos, oder schlicht zu riskant erscheinen, um einem Zusammenhang nachzugehen.
Wenn z.B. eine KI Go, Schach, oder Dota spielt, so sind sie generell wesentlich risikobereiter um ihren Erfolg zu maximieren. Menschen spielen generell defensiver, fast so als wäre es kein Spiel, sondern ein wirklicher Überlebenskampf.
Bei der Analyse vermengen sich die reguläre statistische Analyse und die KI. Ein beliebtes Übungsbeispiel ist die Passagierliste der Titanic. Ich habe mal eine statistische Methode (R, Recursive Partitioning) gegen ein MLP (Keras) antreten lassen. Beide Methoden zeigen Zusammenhänge auf, die einem Menschen erst einmal nicht so offensichtlich sind.
ist das nicht abhängig von der Risikofreude des Individuums. Ein Pokerspieler spielt vermulich anders Schach als jemand der kA....alle Versicherungen abgeschlossen hat die es gibt....sy grad kein besseres Beispiel eingefallen....
und gilt diese Statistik nur für Wettkämpfe, also Analogie zum Überleben sprich dem Risiko des eigenen Lebens, oder auch für simple Wetteinsätze?
AW: Künstliche Intelligenz
Zitat:
Zitat von
Makkabäus
Beim gefühlvollen und psychologischen Part in Bezug auf Roboter hat sich die Frau von Isaac Asimov, Janet Asimov, hervorgetan.
Ihre Geschichten mit dem Robot Norby !
Sie ist jetzt 90 Jahre alt !
https://de.wikipedia.org/wiki/Janet_Asimov
Jetzt ist Sie auch verstorben !
https://thehumanist.com/news/aha_new...imov-1926-2019
AW: Künstliche Intelligenz
Radio Ö 1, Serie diese Woche, je 9:05 bzw. (Wdh.) 22:05 im "Radio-Kolleg" :
Zitat:
[...]
Vorstellungen des Posthumanen (2). Gestaltung: Julia Grillmayr
Die Zukunft wird posthuman, darin sind sich viele zeitgenössische Denkerinnen und Denker einig. Doch was unter dem Posthumanen zu verstehen ist, welche Wesen, Technologien und Gesellschaften nach dem Menschlichen kommen sollen, darüber herrscht Uneinigkeit. Während sich der Transhumanismus ausmalt, den Menschen mittels Technologie und Medizin superintelligent, topfit und unsterblich zu machen, bereitet sich der technologische Posthumanismus auf die nächste Stufe der menschlichen Evolution vor, die seiner Meinung nach in der Herrschaft einer Künstlichen Intelligenz besteht.
[...]
https://oe1.orf.at/programm/20220208...als-menschlich
(Auch zum zusätzlichen nachkonsumieren)
AW: Künstliche Intelligenz
Zitat:
Zitat von
Flüchtling
Ich würde das nicht als "menschliche" Evolution bezeichnen wollen. Es ist eher eine aufgezwungene Automatisation des Menschen.
Es wird zwar viel über dieses Thema gesprochen, aber bei diesem kurzen Video bekam ich dann doch Gänsehaut:
https://t.me/c/1345864754/15192
[video]Q+++, [23.02.22 15:20] [ Video ] ⚠️ In einem Vortrag auf dem Davoser Wirtschaftsforum 2018 sagt der Bestseller-Historiker Noah Yurari ganz offen, dass dank der Sammlung biometrischer Daten durch die Elite "der Mensch nach Lust und Laune umgestaltet werden kann". Das Paradoxe an dieser düsteren Rede, in der er die transhumanistische Verschwörung anerkennt, ist, dass er sie "intelligentes Design" nennt, was genau derselbe Ausdruck ist, den diejenigen von uns verwenden, die nicht an die Evolutionstheorie, sondern an das Eingreifen anderer Wesenheiten in unsere Schöpfung glauben. Der Punkt ist, dass dieser Israelit ein Vermögen mit dem Schreiben von Büchern zur Verteidigung der Evolutionstheorie verdient hat.
AW: Künstliche Intelligenz
Auf Deutsch gibts das (noch) nicht, aber gratis Online-Übersetzungs Tools.
Undetectable Backdoors in Machine-Learning Models
New paper: “Planting Undetectable Backdoors in Machine Learning Models:
Abstract: Given the computational cost and technical expertise required to train machine learning models, users may delegate the task of learning to a service provider. We show how a malicious learner can plant an undetectable backdoor into a classifier. On the surface, such a backdoored classifier behaves normally, but in reality, the learner maintains a mechanism for changing the classification of any input, with only a slight perturbation. Importantly, without the appropriate “backdoor key”, the mechanism is hidden and cannot be detected by any computationally-bounded observer. We demonstrate two frameworks for planting undetectable backdoors, with incomparable guarantees.
First, we show how to plant a backdoor in any model, using digital signature schemes. The construction guarantees that given black-box access to the original model and the backdoored version, it is computationally infeasible to find even a single input where they differ. This property implies that the backdoored model has generalization error comparable with the original model. Second, we demonstrate how to insert undetectable backdoors in models trained using the Random Fourier Features (RFF) learning paradigm or in Random ReLU networks. In this construction, undetectability holds against powerful white-box distinguishers: given a complete description of the network and the training data, no efficient distinguisher can guess whether the model is “clean” or contains a backdoor.
Our construction of undetectable backdoors also sheds light on the related issue of robustness to adversarial examples. In particular, our construction can produce a classifier that is indistinguishable from an “adversarially robust” classifier, but where every input has an adversarial example! In summary, the existence of undetectable backdoors represent a significant theoretical roadblock to certifying adversarial robustness.
EDITED TO ADD (4/20): Cory Doctorow wrote about this as well.
https://www.schneier.com/blog/archiv...ng-models.html
Die Kommentare sind wie stets ebenfalls lesenswert. Mußte gerade schmunzeln über diesen Kommentar (Hervorhebung von mir):
Zitat:
Ted •
April 20, 2022 9:43 AM
I feel Cory on this. I am even more than totally unqualified to assess the robustness of the paper’s mathematical proofs.
But considering one of the paper’s authors won a Turing Award, I don’t feel so bad.
(...)
Da erlaube ich mir umso freudiger, mich anzuschließen.
*g*
AW: Künstliche Intelligenz
Zitat:
Zitat von
Ansuz
Auf Deutsch gibts das (noch) nicht, aber gratis Online-Übersetzungs Tools.
Undetectable Backdoors in Machine-Learning Models
New paper: “Planting Undetectable Backdoors in Machine Learning Models:
Abstract: Given the computational cost and technical expertise required to train machine learning models, users may delegate the task of learning to a service provider. We show how a malicious learner can plant an undetectable backdoor into a classifier. On the surface, such a backdoored classifier behaves normally, but in reality, the learner maintains a mechanism for changing the classification of any input, with only a slight perturbation. Importantly, without the appropriate “backdoor key”, the mechanism is hidden and cannot be detected by any computationally-bounded observer. We demonstrate two frameworks for planting undetectable backdoors, with incomparable guarantees.
First, we show how to plant a backdoor in any model, using digital signature schemes. The construction guarantees that given black-box access to the original model and the backdoored version, it is computationally infeasible to find even a single input where they differ. This property implies that the backdoored model has generalization error comparable with the original model. Second, we demonstrate how to insert undetectable backdoors in models trained using the Random Fourier Features (RFF) learning paradigm or in Random ReLU networks. In this construction, undetectability holds against powerful white-box distinguishers: given a complete description of the network and the training data, no efficient distinguisher can guess whether the model is “clean” or contains a backdoor.
Our construction of undetectable backdoors also sheds light on the related issue of robustness to adversarial examples. In particular, our construction can produce a classifier that is indistinguishable from an “adversarially robust” classifier, but where every input has an adversarial example! In summary, the existence of undetectable backdoors represent a significant theoretical roadblock to certifying adversarial robustness.
EDITED TO ADD (4/20): Cory Doctorow wrote about this as well.
https://www.schneier.com/blog/archiv...ng-models.html
Die Kommentare sind wie stets ebenfalls lesenswert. Mußte gerade schmunzeln über diesen Kommentar (Hervorhebung von mir):
Da erlaube ich mir umso freudiger, mich anzuschließen.
*g*
Ich habe es mal übersetzen lassen
Zitat:
Unaufspürbare Hintertüren in Modellen des maschinellen Lernens
Neues Papier: "Einschleusen von nicht nachweisbaren Hintertüren in Modelle für maschinelles Lernen":
Zusammenfassung: In Anbetracht der Rechenkosten und des technischen Know-hows, die zum Trainieren von maschinellen Lernmodellen erforderlich sind, können Benutzer die Aufgabe des Lernens an einen Dienstanbieter delegieren. Wir zeigen, wie ein böswilliger Lerner eine unentdeckbare Hintertür in einen Klassifikator einbauen kann. Oberflächlich betrachtet verhält sich ein solcher Klassifikator normal, aber in Wirklichkeit verfügt der Lernende über einen Mechanismus, mit dem er die Klassifizierung einer beliebigen Eingabe mit nur geringfügigen Änderungen ändern kann. Wichtig ist, dass der Mechanismus ohne den entsprechenden "Hintertür-Schlüssel" verborgen bleibt und von keinem rechnerisch beschränkten Beobachter entdeckt werden kann. Wir demonstrieren zwei Verfahren zum Einschleusen unentdeckbarer Hintertüren mit unvergleichlichen Garantien.
Erstens zeigen wir, wie man eine Hintertür in jedes beliebige Modell einbauen kann, indem man digitale Signaturverfahren verwendet. Die Konstruktion garantiert, dass es bei Blackbox-Zugriff auf das ursprüngliche Modell und die durch die Hintertür geschützte Version rechnerisch nicht möglich ist, auch nur eine einzige Eingabe zu finden, bei der sich die beiden Modelle unterscheiden. Diese Eigenschaft impliziert, dass das Backdoored-Modell einen mit dem Originalmodell vergleichbaren Generalisierungsfehler aufweist. Zweitens zeigen wir, wie man unentdeckbare Hintertüren in Modelle einfügt, die mit dem Lernparadigma Random Fourier Features (RFF) oder in Random ReLU-Netzwerken trainiert wurden. Bei dieser Konstruktion ist die Unauffindbarkeit gegenüber leistungsfähigen White-Box-Differenzierern gewährleistet: Bei einer vollständigen Beschreibung des Netzwerks und der Trainingsdaten kann kein effizienter Differenzierer erraten, ob das Modell "sauber" ist oder eine Hintertür enthält.
Unsere Konstruktion von nicht nachweisbaren Hintertüren wirft auch ein Licht auf die damit verbundene Frage der Robustheit gegenüber gegnerischen Beispielen. Insbesondere kann unsere Konstruktion einen Klassifikator erzeugen, der von einem "widerstandsfähigen" Klassifikator nicht zu unterscheiden ist, bei dem aber jede Eingabe ein widersprüchliches Beispiel enthält! Zusammenfassend lässt sich sagen, dass das Vorhandensein von nicht nachweisbaren Hintertüren ein bedeutendes theoretisches Hindernis für die Zertifizierung der Widerstandsfähigkeit gegen Angriffe darstellt.
Übersetzt mit
www.DeepL.com/Translator (kostenlose Version)
AW: Künstliche Intelligenz
Hier eine Zusammenfassung eines Podcasts der FAZ:
Zitat:
Projekte mit Künstlicher Intelligenz scheitern häufig – und haben der Technologie den Ruf eingebracht, in der Theorie zwar überzeugend, in der Praxis aber schwer anwendbar zu sein. Zu Unrecht, findet Holger Mai vom Beratungsunternehmen Accenture, der die Ursache für gescheiterte Projekte meist in der falschen Herangehensweise der Manager sieht. „Natürlich gibt es auch mal Schwierigkeiten in der Technik, aber das ist der kleinere Teil. Das Problem liegt meist im Management“, berichtet Mai im FAZ-Podcast „Künstliche Intelligenz“.
Das Problem beginne schon mit der Auswahl der Daten: „In einem Fall hatte das Management die Anforderung gestellt, 5000 Datenquellen einzubeziehen. Das war nicht zu schaffen. Dabei ließen sich 80 Prozent des Wertes schon mit 100 Datenquellen erreichen“, erzählt Mai. „Wir machen KI zu kompliziert. Das Muster ist immer wieder zu beobachten“.
Ein weiterer Fehler liege in der mangelnden Skalierbarkeit: Selbst wenn das Pilotprojekt funktioniert habe, straucheln viele Unternehmen, wenn die Technik im Unternehmen ausgerollt werden soll. Oft mache das Management den Fehler, diese Skalierung nicht von Anfang an mitzudenken.
Hier werden ein paar Dinge angesprochen, die aus meiner Sicht wirklich nachvollziehbar sind.
In meinem Umfeld erreichen vielleicht 10% aller KI-Projekte ihr Endstadium, d.h. ihre Anwendung in der Produktionsumgebung von Unternehmen. Das liegt an den Daten, wie im Zitat angesprochen, aber m.E. noch wesentlich stärker an regulativen Auflagen. Egal ob es sich um Gesetzgebungen zur Datensicherheit, dem Schutz von persönlichen Daten, oder branchenspezifischen Auflagen handelt, so können diese umgangen werden, wenn die Anwendung offiziell nie die Testphase verlässt. In meiner Firma haben wir es z.T. geschafft, KI-Applikationen offiziell zu nutzen, aber der Aufwand war immer enorm.
Oftmals sind auch die Ergebnisse der KI kaum zu gebrauchen. Das Management will wissen, ob etwas wahr ist oder nicht, was die Ursache darstellt, und keine Matrix von Korrelationxkoeffizienten. Das ist ein Managementproblem.
Dabei haben wir die KI durchaus erfolgreich eingesetzt, oftmals genau dann, wenn Algorithmen oder statische Methoden keine Aussagen treffen konnten, aber zumindest die Datenmenge deutlich reduzierten, die die KI bewältigen musste. Interessanterweise weniger bei der generellen Analyse von Daten, sondern bei der Unterstützung von bereits bestehenden Betriebsaufläufen, die dadurch effizienter wurden. (Es waren danach wirklich weniger Mitarbeiter notwendig.)
Die Aussagen zu den Datensilos und der Skalierbarkeit erachte ich als problematisch. Diese Silos bestehen in den meisten Fällen aufgrund von konkreten Auflagen, oder schlicht aus Gründen der Datensicherheit (zero trust, etc.) . Dies kann nicht vernachlässigt werden, nur weil eine KI-Anwendung diese Daten nutzen will. Die Skalierung ist ein inhärentes Problem der KI, und kein Managementproblem. Das ist ähnlich der Skalierbarkeit von Cloud-Anwendungen: Ja, man kann das planen, aber das bedeutet nicht, dass man es sich selbst bei korrekter Planung leisten kann.