In der Debat­te um Künst­li­che Intel­li­genz wer­den ver­schie­dens­te Stim­men laut — von Lob­prei­sung bis War­nung ist alles mit dabei. Aber wo ist auch etwas Wah­res dran? Wir neh­men die bekann­tes­ten Zita­te unter die Lupe.

 

AI is the new elec­tri­ci­ty. Just as elec­tri­ci­ty trans­for­med almost ever­y­thing 100 years ago, today I actual­ly have a hard time thin­king of an indus­try that I don’t think AI will trans­form in the next several years.” — Andrew Ng, Infor­ma­ti­ker und KI-For­scher.

Eigent­lich ein schö­nes Bild: Künst­li­che Intel­li­genz als neu­er Antrieb, der — wie die Elek­tri­zi­tät es tat — alle Berei­che des Lebens auf ein neu­es Level hebt und auf ver­schie­dens­te Wei­sen berei­chert.

Es gibt aber auch ande­re Stim­men, oft ange­se­he­ner Wis­sen­schaft­ler und gro­ßer Unter­neh­mer, wel­che vor der die­ser neu­en Elek­tri­zi­tät war­nen. So bei­spiels­wei­se der Phy­si­ker Ste­phen Haw­king (“I fear that AI may replace humans alto­ge­ther. If peop­le design com­pu­ter viru­ses, someo­ne will design AI that repli­ca­tes its­elf. This will be a new form of life that will out­per­form humans.”), Micro­soft-Grün­der Bill Gates („I am in the camp that is con­cer­ned about super intel­li­gence.“) oder Tes­la-Grün­der Elon Musk („AI is more dan­ge­rous than nuclear wea­pons.“).

Gera­de Ein­schät­zun­gen aus die­sen Mün­dern soll­te man doch Glau­ben schen­ken kön­nen — oder nicht?

 

Die Angst vor der Superintelligenz

Ja und nein; auf den Kon­text kommt es an. Natür­lich ver­brei­ten weder Haw­kings noch Gates Unwahr­hei­ten, es ist aber wich­tig, auf Wort­laut und Hin­ter­grün­de zu ach­ten. So sagt Haw­kings näm­lich noch im glei­chen Satz, dass wir die Ent­wick­lung von KI defi­ni­tiv wei­ter vor­an­trei­ben müs­sen. Und auch Elon Musk spricht sich nicht gegen die Ent­wick­lung von KI aus, son­dern für die Schaf­fung von Rah­men­be­din­gun­gen für eine kon­trol­lier­te Ent­wick­lung.

Die Beto­nung liegt bei bei­den außer­dem auf dem Begriff der Super­in­tel­li­genz. Wie rea­li­täts­fern die­se der­zeit ist, wird in den Bei­trä­gen dann meist nicht erwähnt. Momen­tan schei­tert die Wis­sen­schaft noch dar­an, Künst­li­che Intel­li­genz zu ent­wi­ckeln, die sich auf mehr als eine Sache gleich­zei­tig kon­zen­trie­ren kann, von der Über­nah­me durch Maschi­nen sind wir also noch ein gutes Stück ent­fernt.

Denn KI ist nicht gleich KI. Und aktu­el­le KI-Anwen­dun­gen dür­fen nicht mit Super­in­tel­li­genz gleich­ge­setzt wer­den. Die an die­ser Stel­le sehr rele­van­te Unter­schei­dung zwi­scher schwa­cher, star­ker und Super-KI haben wir dar­um hier vor­ge­nom­men.

 

Mensch oder Maschine — wer war zuerst da?

Ver­la­gern wir das Pro­blem nicht außer­dem an die fal­sche Stel­le, indem wir die­se Ängs­te auf die Künst­li­chen Intel­li­gen­zen pro­ji­zie­ren? Wir geben der KI damit einen eige­nen Hand­lungs­wil­len, ein Bewusst­sein, eine Mei­nung. Aber KI kommt nicht von unge­fähr, ent­wi­ckelt sich auch nicht von selbst — Künst­li­che Intel­li­genz wirkt hier viel­leicht nur als Ver­stär­ker und Beschleu­ni­ger der Fra­ge­stel­lun­gen, mit denen sich unse­re Gesell­schaft sowie­so aus­ein­an­der­zu­set­zen hat.

Maschi­nen sind ledig­lich neu­tra­le Werk­zeu­ge, zu Waf­fen oder Heil­mit­teln wer­den sie von uns Men­schen gemacht.“ so Hol­ger Vol­land in sei­nem Buch Die krea­ti­ve Macht der Maschi­nen. Auch Wirt­schafts­jour­na­list Tho­mas Ram­ge fasst zusam­men: „Bis auf wei­te­res müs­sen wir uns nicht vor Künst­li­cher Intel­li­genz fürch­ten, son­dern vor Men­schen, die sie miss­brau­chen.“

Das eigent­lich gefähr­li­che sind doch nicht auf KI-basie­ren­de Anwen­dun­gen, son­dern was die Men­schen dar­aus machen. Und damit ist nicht die Erfin­dung der KI per se gefähr­lich. Auch in der Erfin­dung von Com­pu­ter und Inter­net lie­gen gro­ße Gefah­ren durch Miss­brauch, bei­spiels­wei­se in Form von Viren, Hacker­an­grif­fen und Cyber­at­ta­cken. Es liegt in der Natur vie­ler Din­ge, dass es min­des­tens zwei Sei­ten der Betrach­tung gibt. Com­pu­ter sind nicht gut oder schlecht, das Inter­net ist nicht gut oder schlecht, Soci­al Media ist nicht gut oder schlecht — und genau­so wenig ist Künst­li­che Intel­li­genz gut oder schlecht. Es eine Sache der Per­spek­ti­ve, ob ich den beschüt­zen­den, ver­tei­di­gen­den oder angrei­fen­den Aspekt von etwas sehen möch­te — exis­tent sind sie ver­mut­lich alle.

Was KI laut Musk also gefähr­li­cher macht als Nukle­ar­waf­fen ist die der­zei­ti­ge Unklar­heit, also das Feh­len von Richt­li­ni­en und Regu­lie­run­gen. Dass ethi­sche Fra­ge­stel­lun­gen dis­ku­tiert und ein sol­cher Rah­men und unab­hän­gi­ge Orga­ne geschaf­fen wer­den müs­sen, ist abso­lut rich­tig. Erneut gilt: Die KI-Ent­wick­lung ist nicht auf­halt­bar, aber gestalt­bar.

 

Vor lauter Morgen das Heute nicht vergessen

Ein sehr wich­ti­ger Gedan­ke kommt in die­sem Zusam­men­hang außer­dem von KI-For­scher Richard Socher: “Die aktu­el­le Debat­te um die Aus­wir­kun­gen der KI wir­ken gele­gent­lich, als hät­te man 1969, als das Inter­net erfun­den wur­de, ver­sucht, über die Ethik des Medi­ums zu dis­ku­tie­ren. Kei­ner der Exper­ten damals hat­te vor­her­ge­se­hen, dass wir Pro­ble­me mit Soci­al-Media-Kam­pa­gnen haben wer­den oder heu­te die Gefahr von Online­pro­pa­gan­da dis­ku­tie­ren. Ähn­lich ist das, wenn wir uns der­zeit schon Sor­gen über eine Über-KI machen, statt über rea­le Pro­ble­me zu reden.

Und: auch Exper­ten täu­schen sich mal. “Ich den­ke, es gibt viel­leicht einen Welt­markt für fünf Com­pu­ter”, hier es 1943 von IBMs Tho­mas Wat­s­on. Bill Gates hielt das Inter­net 1993 für “nur einen Hype”. Und auch 2001 pro­gnos­ti­zier­te Trend- und Zukunfts­for­scher Mat­thi­as Horx noch: “Das Inter­net wird kein Mas­sen­me­di­um.” Das Phä­no­me­nen lässt sich auch auf ande­re Berei­che über­tra­gen: “Mit­te der acht­zi­ger Jah­re wird es den ers­ten bemann­ten Flug zum Mars geben”, war sich Nukle­ar­stra­te­ge und Futu­ro­lo­ge Her­man Kahn in den Sech­zi­gern sicher. Und es gibt zahl­rei­che, wei­te­re Bei­spie­le.

Was bedeu­tet das für uns? Das Poten­ti­al neu­er Erfin­dun­gen und Tech­no­lo­gi­en lässt sich — auch von Exper­ten — nicht ein­fach so vor­her­sa­gen. Diver­se Fak­to­ren spie­len eine Rol­le; ein ganz maß­geb­li­cher Aspekt ist die Akzep­tanz der Gesell­schaft. Eine Tech­no­lo­gie kann noch so fort­schritt­lich sein, wenn die Indi­vi­du­en sich bei der Nut­zung nicht wohl­füh­len, wird sie sich nicht ver­brei­ten. Und gera­de Exper­ten, die sich tag­ein tag­aus mit eben­die­ser Tech­no­lo­gie befas­sen, mögen wahr­schein­lich eher zu einer ver­zerr­ten, über­schätz­te Wahr­neh­mung hin­rei­ßen las­sen.

Bevor man sich ver­schie­de­ne Zukunfts­sze­na­ri­en aus­malt, von denen letz­ten Endes mög­li­cher­wei­se keins ein­tritt, und damit die Ent­wick­lun­gen bremst, soll­te man den Fokus doch auf das “Heu­te” legen. Ent­wick­lung und Regu­lie­rung müs­sen Hand in Hand gehen, das eine kann und darf ohne das ande­re nicht pas­sie­ren.

 

Künstliche Intelligenz als Chance

Künst­li­che Intel­li­genz soll­te nicht als Gefahr oder als Ersatz, son­dern als Erwei­te­rung gese­hen wer­den. Das Zusam­men­spiel Mensch-Maschi­ne funk­tio­niert am bes­ten, wenn jedem Part die Aus­übung sei­ner Stär­ken ermög­licht wer­den. Damit kommt man sich weder in die Que­re, noch wird ein Teil über­flüs­sig. Denn:

Künst­li­che Intel­li­genz kann uns das Den­ken nicht abneh­men.“ (Tho­mas Ram­ge) und “Com­pu­ter und Robo­ter kön­nen weder die Pfle­ge regeln, noch Armut mil­dern, noch den Ver­kehr ent­stau­en. Dazu brau­chen wir intel­li­gen­te­re sozia­le, huma­ne Sys­te­me.” (Mat­thi­as Horx)

Und natür­lich sind es nicht nur kom­pli­zier­ten und anspruchs­vol­len Din­ge, die uns Men­schen vor­be­hal­ten blei­ben, son­dern auch das Emp­fin­den und Erle­ben des Schö­nen bei vol­lem Bewusst­sein. Abschlie­ßend dar­um die Wor­te von Joseph Wei­zen­baum, Infor­ma­ti­ker, Wis­sen­schafts- und Gesell­schafts­kri­ti­ker und Ent­wick­ler des Com­pu­ter­gramms ELIZA; des ers­ten Chat­bots, der damals einen Mei­len­stein der KI bedeu­te­te:

Es gibt mit ande­ren Wor­ten Din­ge, die Men­schen nur des­halb wis­sen, weil sie einen Kör­per haben. Kein Orga­nis­mus, der kei­nen mensch­li­chen Kör­per besitzt, kann die­se Din­ge in der glei­chen Wei­se wis­sen wie der Mensch.“ (Com­pu­ter­macht und Gesell­schaft)

 

Noch gibt es vie­le Fra­gen ohne Ant­wor­ten, kein rich­tig oder falsch und auch kei­ne Glas­ku­gel, die uns die Zukunft vor­her­sagt. Die­se Unsi­cher­hei­ten und feh­len­de Erklä­run­gen las­sen uns vie­le Aus­sa­gen falsch ein­ord­nen oder miss­ver­ste­hen. Was wir dage­gen tun kön­nen? Aktiv mit­ge­stal­ten, Richt­li­ni­en for­dern und dabei hel­fen, die Ängs­te der brei­ten Öffent­lich­keit durch Auf­klä­rung zu rela­ti­vie­ren.

 

 

Über Ret­res­co | @retresco

Bereits seit 2008 ent­wi­ckelt Ret­res­co füh­ren­de KI-Lösun­gen im Bereich Con­tent Auto­ma­ti­on. In den letz­ten Jah­ren hat sich das Unter­neh­men zuneh­mend zu einem der füh­ren­den Anbie­ter in der auto­ma­ti­schen Tex­ter­stel­lung (Natu­ral Lan­guage Gene­ra­ti­on) ent­wi­ckelt und dut­zen­de Pro­jek­te für Kun­den aus den Berei­chen Medi­en, E-Com­mer­ce und Finanz­dienst­leis­tun­gen umge­setzt.

 

Ansprech­part­ner

Fran­ca Ding | @francacharlotte
Mar­ke­ting Koor­di­na­to­rin, Ret­res­co GmbH
+49 (0)30 555 781 999
franca.ding@retresco.de