Institut für Soziale Intelligenz

Wissen - Erkennen - Anwenden

Kategorie: USA

DeepCoder: Können Programme jetzt Kinder bekommen?

DeepCoder ist eine Software, die Software programmieren kann – angeblich besser als Menschen. Das berichtet → heise.de.

Die Künstliche Intelligenz beobachtet, was Programme bewirken sollen und dann wirklich bewirken. Daraus zieht sie Schlüsse, wie man besser programmieren kann.

Als Bild: Können Programme jetzt Kinder bekommen?

Erwartet das Silicon Valley eine Europäische Antwort?

ZDF-Journalist Claus Kleber bringt aus dem Silicon Valley einen Impuls nach Europa, der uns Freuen und Fürchten machen könnte: Die ITler in Kalifornien glaubten soo sehr an Technik-Götzen, so Kleber, dass wir mit europäischer Distanz gute Chancen haben könnten, etwas mehr Leben in die Technik zu hauchen.

Dazu müssten wir runterkommen vom Sofa, sagt er im Deutschlandradio (hier…), und lädt ein zum Mitmischen. Wird gemacht: bei der www.Tour2017.Sozialintelligenz.de

Ist das Kunst oder kann das weg?

Irgendjemand kümmert sich für facebook & Co. darum, dass Dinge aus dem Internet verschwinden: Als „Müllabfuhr des Internets“ bezeichnen das die Gewerkschaften. Wie das genau geht und welchen psychischen Preis die „Müllarbeiter“ dafür bezahlen könnte, beschreibt heise.de hier…

head-708112Was bemerkenswert daran ist? Natürlich gibt es das Gegenteil von Sozialer Intelligenz – sogar zuhauf, wie ein Blick in die Netzwerke zeigt. Dafür bezahlen wir alle einen Preis: Ablenkung, Ärger, Misstrauen.
Damit facebook & Co. nicht zu stinken anfangen, um also die Reputation der Netzwerke zu erhalten, bezahlen facebook & Co. einen monetären Preis – und auch die „Müllarbeiter des Internets“ einen psychischen.

Könnte Soziale Intelligenz zu besseren Lösungen beitragen?

Ergänzung: 600 Mitarbeiter in Deutschland sollen sich um die Bewertung von facebook-Postings kümmern, meldet Deutschlandradio: hier…

Lehmann-Pleite: Regelkreise ausgehebelt

lehman-brothers-www20150511Risse bekommen hat am 15. September 2008 – heute vor acht Jahren – eines der Grundfundamente menschlichen Verhaltens: Mit der Insolvenz der Investment-Bank Lehmann-Brothers kam das Prinzip „to big to fail“ auf. Heißt: Wer „systemrelevant“ ist, wird von der Allgemeinheit aufgefangen. Das demontiert das Prinzip der „Selbstwirksamkeitserwartung“ aus der Psychologie.

Nun kann es eine Weiterentwicklung sein, wenn althergebrachte Prinzipien relativiert oder abgeschafft werden: In unserem Fall kann es schlau sein, dass Staatsgemeinschaften einzeln Bankunternehmen retten, wenn denn damit Soziale Infrastruktur erhalten bleibt, die für die Gemeinschaft wertvoll ist.
Die Kehrseite der Medaille ist, dass auch jene Menschen daraus lernen, die fahrlässig oder vorsätzlich Fehler gemacht haben. Wenn wir annehmen, dass nicht nur die Investmentbanker aus der Lehman-Pleite gelernt haben, dann dürfen wir vermuten, dass wir alle zumindest erlebt haben, dass Regelkreise ausgehebelt werden können; möglicherweise erleben wir es auch als attraktiv und nachahmenswert, in „systemrelevante“ Positionen zu gelangen, um dort nach eigenem Gutdünken agieren zu können.

Vor vier Jahren hat Walter Wüllenweber beschrieben, wie sich diese Denkweise in der deutschen Gesellschaft breitgemacht hat – in allen gesellschaftlichen Schichten: siehe Video unten oder hier…

Wie genau sozial intelligenteres Verhalten aussehen könnte, wäre eine Auseindersetzung wert. Deswegen gibt es das Institut für Soziale Intelligenz.

Soziale Intelligenz für Maschinen

In Los Angeles / Kalifornien arbeitet das Institute for Creative Technologies (ICT) (mehr…) daran, dass Maschinen menschliche Verhaltensweisen einschätzen und darauf reagieren können: Ist das dann Künstliche Soziale Intelligenz?