Ein Rahmen zur Bewertung sich schnell entwickelnder digitaler und verwandter Technologien: KI, große Sprachmodelle und darüber hinaus

Dieses Diskussionspapier bietet den Überblick über einen ersten Rahmen als Grundlage für die vielfältigen globalen und nationalen Diskussionen, die im Zusammenhang mit KI stattfinden.

Ein Rahmen zur Bewertung sich schnell entwickelnder digitaler und verwandter Technologien: KI, große Sprachmodelle und darüber hinaus

Eine Reihe von Wissenschaftlern und Politikexperten haben vorgeschlagen, dass der Internationale Wissenschaftsrat – mit seiner pluralistischen Mitgliedschaft aus den Sozial- und Naturwissenschaften – einen Prozess zur Erstellung und Pflege eines kommentierten Rahmens/einer Checkliste der Risiken, Vorteile, Bedrohungen und Chancen einführt im Zusammenhang mit sich schnell entwickelnden digitalen Technologien, einschließlich – aber nicht beschränkt auf – KI. Der Zweck der Checkliste bestünde darin, alle Beteiligten – einschließlich Regierungen, Handelsverhandlungsführer, Regulierungsbehörden, Zivilgesellschaft und Industrie – über mögliche Zukunftsszenarien zu informieren und festzulegen, wie sie die Chancen, Vorteile, Risiken und andere Probleme berücksichtigen könnten.

Das ISC freut sich, dieses Diskussionspapier zur Bewertung der sich schnell entwickelnden digitalen und verwandten Technologien vorzustellen. Künstliche Intelligenz, synthetische Biologie und Quantentechnologien sind Paradebeispiele für wissenschaftlich fundierte Innovationen, die in einem beispiellosen Tempo entstehen. Es kann schwierig sein, nicht nur ihre Anwendungen, sondern auch ihre Auswirkungen systematisch zu antizipieren.

Die Bewertung der gesellschaftlichen Aspekte der generativen KI, wie z. B. großer Sprachmodelle, die erwartungsgemäß den Großteil dieses Diskussionspapiers ausmachen, ist eine notwendige Brücke innerhalb des aktuellen Diskurses – manchmal panikgetrieben, manchmal nicht tiefgründig genug im Denken – und der notwendigen Abläufe Maßnahmen, die wir ergreifen können. Das ISC ist davon überzeugt, dass ein analytischer Rahmen zwischen der gesellschaftlichen Akzeptanz solcher neuen Technologien und ihrer möglichen Regulierung erforderlich ist, um die Diskussionen mit mehreren Interessengruppen zu erleichtern, die erforderlich sind, um fundierte und verantwortungsvolle Entscheidungen darüber zu treffen, wie der gesellschaftliche Nutzen dieser sich schnell entwickelnden Technologie optimiert werden kann.

Das ISC ist offen für Reaktionen aus unserer Community im Rahmen dieses Diskussionspapiers, um zu beurteilen, wie wir weiterhin am besten Teil der Technologiedebatte sein und einen Beitrag dazu leisten können.

Salvatore Aricò, CEO

Ein ISC-Diskussionspapier

Ein Rahmen zur Bewertung sich schnell entwickelnder digitaler und verwandter Technologien: KI, große Sprachmodelle und darüber hinaus

Dieses Diskussionspapier bietet den Überblick über einen ersten Rahmen als Grundlage für die vielfältigen globalen und nationalen Diskussionen, die im Zusammenhang mit KI stattfinden.

Lesen Sie den Artikel online oder in Ihrer bevorzugten Sprache

Inhalte

  • Einleitung 
  • Hintergrund 
  • Die Entwicklung eines analytischen Rahmens 
  • Verwendung des analytischen Rahmens 
  • Dimensionen, die bei der Bewertung einer neuen Technologie zu berücksichtigen sind 
  • Ein Weg nach vorne 
  • Danksagung

Einleitung

Sich schnell entwickelnde Technologien stellen hinsichtlich ihrer Steuerung und möglichen Regulierung vor Herausforderungen. Die politischen und öffentlichen Debatten über künstliche Intelligenz (KI) und ihren Einsatz haben diese Themen in den Fokus gerückt. Während von der UNESCO, der OECD und anderen allgemeine Grundsätze für KI verkündet wurden und Diskussionen über die globale oder gerichtliche Regulierung der Technologie im Entstehen begriffen sind, besteht eine ontologische Lücke zwischen der Entwicklung übergeordneter Grundsätze und ihrer Einbindung in Regulierung, Politik, Governance- und Stewardship-Ansätze. Hier könnte der nichtstaatlichen Wissenschaftsgemeinschaft eine besondere Rolle zukommen. 

Eine Reihe von Wissenschaftlern und Politikexperten haben vorgeschlagen, dass der Internationale Wissenschaftsrat (ISC) – mit seiner pluralistischen Mitgliedschaft aus den Sozial- und Naturwissenschaften – einen Prozess zur Erstellung und Pflege eines kommentierten Rahmens/einer Checkliste der Risiken, Vorteile, Bedrohungen und Chancen im Zusammenhang mit sich schnell entwickelnden digitalen Technologien, einschließlich – aber nicht beschränkt auf – KI. Der Zweck der Checkliste bestünde darin, alle Beteiligten – einschließlich Regierungen, Handelsverhandlungsführer, Regulierungsbehörden, Zivilgesellschaft und Industrie – über mögliche Zukunftsszenarien zu informieren und festzulegen, wie sie die Chancen, Vorteile, Risiken und andere Probleme berücksichtigen könnten. 

Die Ergebnisse würden nicht als Bewertungsgremium fungieren, sondern als adaptiver und sich weiterentwickelnder Analyserahmen, der allen Bewertungs- und Regulierungsprozessen zugrunde liegen könnte, die von Interessengruppen, einschließlich Regierungen und dem multilateralen System, entwickelt werden könnten. Jeder analytische Rahmen sollte angesichts der verständlichen Interessen idealerweise unabhängig von Regierungs- und Industrieansprüchen entwickelt werden. Es muss auch in seinen Perspektiven maximal pluralistisch sein und somit alle Aspekte der Technologie und ihrer Auswirkungen umfassen. 

Dieses Diskussionspapier bietet den Überblick über einen ersten Rahmen als Grundlage für die vielfältigen globalen und nationalen Diskussionen, die im Zusammenhang mit KI stattfinden. 

Hintergrund: Warum ein analytisches Framework?

Das schnelle Aufkommen einer Technologie mit der Komplexität und den Auswirkungen von KI führt zu vielen Behauptungen über große Vorteile. Es weckt jedoch auch Ängste vor erheblichen Risiken, von der individuellen bis zur geostrategischen Ebene. Ein Großteil der Diskussion findet am äußersten Ende des Meinungsspektrums statt, und es ist ein pragmatischerer Ansatz erforderlich. Die KI-Technologie wird sich weiterentwickeln und die Geschichte zeigt, dass praktisch jede Technologie sowohl nützliche als auch schädliche Vorteile hat. Die Frage ist daher: Wie können wir mit dieser Technologie positive Ergebnisse erzielen und gleichzeitig das Risiko schädlicher Folgen verringern, von denen einige existenziell sein könnten? 

Die Zukunft ist immer ungewiss, aber es gibt genügend glaubwürdige und fachkundige Stimmen zu KI und generativer KI, um einen relativ vorsorglichen Ansatz zu fördern. Darüber hinaus ist ein systemischer Ansatz erforderlich, da es sich bei KI um eine Klasse von Technologien mit breitem Einsatz und Anwendung durch mehrere Arten von Benutzern handelt. Das bedeutet, dass der gesamte Kontext berücksichtigt werden muss, wenn die Auswirkungen der KI auf den Einzelnen, das soziale Leben, das bürgerliche Leben, das gesellschaftliche Leben und im globalen Kontext betrachtet werden. 

Im Gegensatz zu den meisten früheren Technologien vergehen bei digitalen und verwandten Technologien von der Entwicklung bis zur Veröffentlichung nur sehr kurze Zeiträume, die weitgehend von den Interessen der Produktionsfirmen oder Agenturen bestimmt werden. KI verbreitet sich schnell; Einige Eigenschaften werden möglicherweise erst nach der Veröffentlichung sichtbar, und die Technologie könnte sowohl böswillige als auch wohlwollende Anwendungen haben. Wichtige Wertedimensionen beeinflussen die Wahrnehmung einer Nutzung. Darüber hinaus können geostrategische Interessen im Spiel sein. 

Bisher wurde die Regulierung einer virtuellen Technologie weitgehend unter dem Gesichtspunkt von „Grundsätzen“ und freiwilliger Einhaltung betrachtet. In jüngerer Zeit hat sich die Diskussion jedoch auf Fragen der nationalen und multilateralen Governance, einschließlich des Einsatzes regulatorischer und anderer politischer Instrumente, verlagert. Die Behauptungen für oder gegen KI sind oft übertrieben und – angesichts der Natur der Technologie – schwer zu beurteilen. Die Einrichtung eines wirksamen globalen oder nationalen Technologieregulierungssystems wird eine Herausforderung sein, und entlang der Kette, vom Erfinder über den Hersteller, den Benutzer, die Regierung bis hin zum multilateralen System, sind mehrere Ebenen risikoorientierter Entscheidungsfindung erforderlich. 

Während unter anderem von der UNESCO, der OECD und der Europäischen Kommission hochrangige Grundsätze verkündet wurden und verschiedene hochrangige Diskussionen über Fragen einer möglichen Regulierung im Gange sind, besteht eine große ontologische Lücke zwischen solchen Grundsätzen und einem Governance- oder Regulierungsrahmen. Welche Taxonomie von Überlegungen muss eine Regulierungsbehörde möglicherweise berücksichtigen? Angesichts der weitreichenden Auswirkungen dieser Technologien wäre eine eng fokussierte Betrachtungsweise unklug. Dieses Potenzial war Gegenstand zahlreicher positiver und negativer Kommentare.

Die Entwicklung eines analytischen Rahmens

Das ISC ist die wichtigste globale NGO, die Natur- und Sozialwissenschaften integriert. Seine globale und disziplinäre Reichweite bedeutet, dass es gut aufgestellt ist, um unabhängige und global relevante Beratung zu generieren, um die bevorstehenden komplexen Entscheidungen zu unterstützen, insbesondere da die aktuellen Stimmen in diesem Bereich größtenteils aus der Industrie oder von den großen Technologiemächten kommen. Nach ausführlichen Diskussionen in den letzten Monaten, einschließlich der Erwägung eines nichtstaatlichen Bewertungsprozesses, kam das ISC zu dem Schluss, dass sein nützlichster Beitrag darin bestehen würde, einen adaptiven Analyserahmen zu erstellen und aufrechtzuerhalten, der als Grundlage für den Diskurs und die Entscheidungsfindung verwendet werden kann alle Beteiligten, auch während eines formellen Bewertungsprozesses, der entsteht. 

Dieser Rahmen würde die Form einer übergreifenden Checkliste haben, die sowohl von staatlichen als auch von nichtstaatlichen Institutionen genutzt werden könnte. Das Rahmenwerk identifiziert und erforscht das Potenzial einer Technologie wie KI und ihrer Derivate aus einem weiten Blickwinkel, der das menschliche und gesellschaftliche Wohlergehen sowie externe Faktoren wie Wirtschaft, Politik, Umwelt und Sicherheit umfasst. Einige Aspekte der Checkliste können je nach Kontext relevanter sein als andere, bessere Entscheidungen sind jedoch wahrscheinlicher, wenn alle Bereiche berücksichtigt werden. Dies ist der inhärente Wert eines Checklisten-Ansatzes. 

Der vorgeschlagene Rahmen basiert auf früheren Arbeiten und Überlegungen, einschließlich des Berichts zum digitalen Wohlbefinden des International Network for Governmental Science Advice (INGSA).1 und das OECD AI Classification Framework2 die Gesamtheit der potenziellen Chancen, Risiken und Auswirkungen von KI darzustellen. Diese früheren Produkte waren in ihrer Absicht angesichts ihrer Zeit und ihres Kontexts stärker eingeschränkt. Es besteht Bedarf an einem übergreifenden Rahmen, der die gesamte Bandbreite der kurz- und längerfristigen Probleme abdeckt. 

Obwohl dieser analytische Rahmen für die Berücksichtigung von KI entwickelt wurde, könnte er auf jede sich schnell entwickelnde Technologie angewendet werden. Die Probleme werden zur weiteren Untersuchung grob in die folgenden Kategorien eingeteilt: 

  • Wohlbefinden (einschließlich des Wohlbefindens des Einzelnen oder des Selbst, der Gesellschaft und des sozialen Lebens sowie des bürgerlichen Lebens) 
  • Handel und Wirtschaft 
  • Umwelt 
  • Geostrategisch und geopolitisch 
  • Technologisch (Systemeigenschaften, Design und Verwendung) 

Für jede der oben genannten Kategorien finden Sie eine Liste mit Überlegungen sowie deren jeweiligen Chancen und Konsequenzen. Einige sind für bestimmte Fälle oder Anwendungen von KI relevant, während andere generisch und plattform- oder nutzungsunabhängig sind. Keine einzelne der hier aufgeführten Überlegungen sollte als Priorität behandelt werden und als solche sollten alle geprüft werden. 

Wie könnte dieser Rahmen genutzt werden?

Dieses Framework kann auf folgende Weise genutzt werden, ist aber nicht darauf beschränkt: 

  • Überbrückung der Lücke zwischen Grundsätzen und Bewertung durch die Festlegung einer validierten gemeinsamen Taxonomie des Spektrums von Überlegungen, die von relevanten Interessengruppen als Grundlage für die Information und Gestaltung weiterer Überlegungen genutzt werden könnte, einschließlich etwaiger Bewertungsrahmen, die von Behörden entwickelt werden könnten. 
  • Zur Information über Folgenabschätzungen. Das EU-KI-Gesetz verlangt von Organisationen, die KI-Tools bereitstellen oder KI in ihren Prozessen einsetzen, eine Folgenabschätzung durchzuführen, um das Risiko ihrer Initiativen zu ermitteln und einen geeigneten Risikomanagementansatz anzuwenden. Als Grundlage hierfür könnte der hier vorgestellte Rahmen dienen. 
  • Verbesserung der ethischen Grundsätze, die zur Führung und Steuerung des Einsatzes von KI erforderlich sind. Das Rahmenwerk kann dies erreichen, indem es eine flexible Grundlage für die Entwicklung vertrauenswürdiger Systeme bietet und den rechtmäßigen, ethischen, robusten und verantwortungsvollen Einsatz der Technologie gewährleistet. Diese Grundsätze könnten anhand der gesamten Bandbreite der in diesem Rahmen vorgestellten Auswirkungen getestet werden. 
  • Um eine Bestandsaufnahme bestehender Maßnahmen (z. B. regulatorischer, gesetzgeberischer und politischer Art) zu ermöglichen und etwaige Lücken zu identifizieren, die einer weiteren Betrachtung bedürfen. 
  • Das Framework ist unabhängig von der Technologie und ihrer Verwendung. Es könnte daher in ganz unterschiedlichen Bereichen wie der synthetischen Biologie eingesetzt werden. 

Die folgende Tabelle ist eine frühe Darstellung der Dimensionen eines Analyserahmens. Abhängig von der Technologie und ihrem Einsatz sind einige Komponenten relevanter als andere. Die Beispiele werden bereitgestellt, um zu veranschaulichen, warum jede Domäne wichtig sein kann. Im Kontext würde das Framework eine kontextrelevante Erweiterung erfordern. Es ist auch wichtig, zwischen Plattformentwicklungen und allgemeinen Problemen zu unterscheiden, die bei bestimmten Anwendungen auftreten können.  

Dimensionen, die bei der Bewertung einer neuen Technologie zu berücksichtigen sind

Erster Entwurf der Dimensionen, die bei der Bewertung einer neuen Technologie möglicherweise berücksichtigt werden müssen
Dimensionen der Wirkung Eigenschaften Beispiele dafür, wie sich dies in der Analyse widerspiegeln kann  
Individuum/Selbst  KI-Kompetenz der Nutzer  Wie kompetent und wie bewusst sind die wahrscheinlichen Benutzer, die mit dem System interagieren werden, über die Eigenschaften des Systems? Wie werden sie mit den relevanten Benutzerinformationen und Warnhinweisen versorgt? 
Betroffene Stakeholder  Wer sind die Hauptakteure, die von dem System betroffen sein werden (d. h. Einzelpersonen, Gemeinschaften, gefährdete Arbeitnehmer, Branchenarbeiter, Kinder, politische Entscheidungsträger, Fachkräfte)? 
Optionalität Haben Benutzer die Möglichkeit, sich vom System abzumelden? Sollte ihnen die Möglichkeit gegeben werden, die Ausgabe anzufechten oder zu korrigieren?  
Risiken für Menschenrechte und demokratische Werte  Könnte das System Auswirkungen (und in welche Richtung) auf die Menschenrechte haben, einschließlich, aber nicht beschränkt auf Privatsphäre, Meinungsfreiheit, Fairness, Diskriminierungsrisiko usw.? 
Mögliche Auswirkungen auf das Wohlbefinden der Menschen Könnte sich das System auf das Wohlbefinden des einzelnen Benutzers (z. B. Arbeitsqualität, Bildung, soziale Interaktionen, psychische Gesundheit, Identität, Umwelt) auswirken (und in welche Richtung)?  
Potenzial für die Verdrängung menschlicher Arbeitskräfte Besteht für das System die Möglichkeit, Aufgaben oder Funktionen zu automatisieren, die von Menschen ausgeführt wurden? Wenn ja, was sind die nachgelagerten Konsequenzen? 
Potenzial für Identitäts-, Werte- oder Wissensmanipulation Ist das System darauf ausgelegt oder potenziell in der Lage, die Identität oder Werte des Benutzers zu manipulieren oder Desinformation zu verbreiten? Besteht die Möglichkeit falscher oder nicht überprüfbarer Behauptungen über Fachwissen? 
Maße des Selbstwertgefühls Gibt es Druck, ein idealisiertes Selbst darzustellen? Könnte Automatisierung das Gefühl persönlicher Erfüllung ersetzen? Gibt es am Arbeitsplatz einen Druck, mit dem System zu konkurrieren? Ist es schwieriger, den Ruf des Einzelnen vor Desinformation zu schützen? 
Datenschutz Gibt es diffuse Verantwortlichkeiten für den Schutz der Privatsphäre und werden Annahmen darüber getroffen, wie personenbezogene Daten verwendet werden?  
Autonomy Könnte das System die menschliche Autonomie beeinträchtigen, indem es zu einer übermäßigen Abhängigkeit der Endbenutzer von der Technologie führt? 
Menschliche Entwicklung Gibt es Auswirkungen auf den Erwerb von Schlüsselkompetenzen für die menschliche Entwicklung, wie z. B. Führungsfunktionen, zwischenmenschliche Fähigkeiten, Veränderungen der Aufmerksamkeitszeit, die sich auf das Lernen, die Persönlichkeitsentwicklung, psychische Gesundheitsprobleme usw. auswirken?  
Persönliche Gesundheitsversorgung Gibt es Ansprüche auf personalisierte Gesundheitslösungen? Wenn ja, sind sie gemäß den regulatorischen Standards validiert? 
Psychische Gesundheit Besteht das Risiko erhöhter Angstzustände, Einsamkeit oder anderer psychischer Probleme, oder kann die Technologie solche Auswirkungen abmildern? 
Menschliche Evolution Könnte die Technologie zu Veränderungen in der menschlichen Evolution führen?  
Dimensionen der Wirkung Eigenschaften Beschreibung 
Gesellschaft/soziales Leben Gesellschaftliche Werte  Verändert das System die Natur der Gesellschaft grundlegend oder ermöglicht es die Normalisierung von Ideen, die zuvor als unsozial galten, oder verstößt es gegen die gesellschaftlichen Werte der Kultur, in der es angewendet wird?  
Soziale Interaktion Gibt es Auswirkungen auf sinnvolle menschliche Kontakte, einschließlich emotionaler Beziehungen?  
Fairness Ist es wahrscheinlich, dass die Anwendung/Technologie Ungleichheiten verringert oder verstärkt (z. B. wirtschaftliche, soziale, bildungsbezogene, geografische)? 
Gesundheit der Bevölkerung Besteht das Potenzial, dass das System die Gesundheitsabsichten der Bevölkerung fördert oder untergräbt? 
Kultureller Ausdruck Ist eine Zunahme kultureller Aneignung oder Diskriminierung wahrscheinlich oder schwieriger zu bekämpfen? Werden möglicherweise Teile der Gesellschaft ausgeschlossen oder marginalisiert, wenn man sich bei der Entscheidungsfindung auf das System verlässt? 
Öffentliche Bildung Gibt es Auswirkungen auf die Lehrerrollen oder Bildungseinrichtungen? Betont oder verringert das System die Ungleichheit zwischen Studierenden und die digitale Kluft? Wird der innere Wert von Wissen oder kritischem Verständnis gefördert oder untergraben?  
Verzerrte Realitäten Sind die Methoden, mit denen wir erkennen, was wahr ist, noch anwendbar? Ist die Wahrnehmung der Realität beeinträchtigt?  
Wirtschaftlicher Kontext (Handel)        Industriebereich In welchem ​​Industriesektor wird das System eingesetzt (z. B. Finanzen, Landwirtschaft, Gesundheitswesen, Bildung, Verteidigung)? 
Geschäftsmodell In welcher Geschäftsfunktion wird das System eingesetzt und in welcher Funktion? Wo wird das System eingesetzt (privat, öffentlich, gemeinnützig)? 
Auswirkungen auf kritische Aktivitäten  Würde eine Störung der Funktion oder Aktivität des Systems wesentliche Dienste oder kritische Infrastrukturen beeinträchtigen?  
Atem des Einsatzes Wie wird das System eingesetzt (eng innerhalb einer Organisation vs. weit verbreitet auf nationaler/internationaler Ebene)? 
Technische Reife (TRL) Wie technisch ausgereift ist das System?  
Technologische Souveränität Führt die Technologie zu einer stärkeren Konzentration technologischer Souveränität?  
Einkommensumverteilung und nationale fiskalische Hebel Könnten die Kernaufgaben des souveränen Staates gefährdet sein (z. B. Reservebanken)? Wird die Fähigkeit des Staates, die Erwartungen und Implikationen der Bürger (dh soziale, wirtschaftliche, politische) zu erfüllen, verbessert oder verringert?  
Dimensionen der Wirkung Eigenschaften Beschreibung 
Bürgerliches Leben    Governance und öffentlicher Dienst Könnten Governance-Mechanismen und globale Governance-Systeme positiv oder negativ beeinflusst werden? 
Nachrichten Medien Wird sich der öffentliche Diskurs voraussichtlich mehr oder weniger polarisieren und auf Bevölkerungsebene verfestigen? Wird es Auswirkungen auf das Vertrauen in die Medien geben? Werden die Ethik- und Integritätsstandards des herkömmlichen Journalismus weiter beeinträchtigt?  
Rechtsstaatlichkeit Wird es Auswirkungen auf die Fähigkeit geben, Einzelpersonen oder Organisationen zu identifizieren, die zur Verantwortung gezogen werden können (d. h. welche Art von Verantwortung soll einem Algorithmus für negative Ergebnisse zugewiesen werden)? Führt dies zu einem Souveränitätsverlust (z. B. in den Bereichen Umwelt, Finanzen, Sozialpolitik, Ethik)?  
Politik und sozialer Zusammenhalt Besteht die Möglichkeit stärker verankerter politischer Ansichten und weniger Möglichkeiten zur Konsensbildung? Besteht die Möglichkeit einer weiteren Marginalisierung von Gruppen? Werden kontroverse Politikstile mehr oder weniger wahrscheinlich gemacht? 
Geostrategischer/geopolitischer Kontext    Präzise Überwachung Sind die Systeme auf individuelle Verhaltens- und biologische Daten trainiert, und wenn ja, könnten sie zur Ausbeutung von Einzelpersonen oder Gruppen genutzt werden? 
Digitale Kolonisierung Sind staatliche oder nichtstaatliche Akteure in der Lage, Systeme und Daten zu nutzen, um die Bevölkerung und Ökosysteme anderer Länder zu verstehen und zu kontrollieren, oder um die gerichtliche Kontrolle zu untergraben? 
Geopolitischer Wettbewerb Beeinträchtigt das System den Wettbewerb zwischen Nationen und Technologieplattformen um den Zugang zu individuellen und kollektiven Daten für wirtschaftliche oder strategische Zwecke? 
Handel und Handelsabkommen Hat das System Auswirkungen auf internationale Handelsabkommen? 
Verschiebung der globalen Mächte Ist der Status der Nationalstaaten als wichtigste geopolitische Akteure der Welt gefährdet? Werden Technologieunternehmen die Macht ausüben, die einst den Nationalstaaten vorbehalten war, und werden sie zu unabhängigen souveränen Akteuren?  
Desinformation Ist es für staatliche und nichtstaatliche Akteure einfacher, Desinformationen zu produzieren und zu verbreiten, die sich auf den sozialen Zusammenhalt, das Vertrauen und die Demokratie auswirken?  
Umwelt  Energie- und Ressourcenverbrauch (COXNUMX-Fußabdruck) Erhöhen das System und die Anforderungen die Energieaufnahme und den Ressourcenverbrauch über die durch die Anwendung erzielten Effizienzgewinne hinaus?  
Dimensionen der Wirkung Eigenschaften Beschreibung 
Daten und Eingaben         Erkennung und Sammlung  Werden die Daten und Eingaben von Menschen, automatisierten Sensoren oder beidem erfasst?  
Herkunft der Daten  Sind die Daten bereitgestellt, beobachtet, synthetisch oder abgeleitet? Gibt es Wasserzeichenschutz zur Bestätigung der Herkunft? 
Dynamische Natur der Daten Sind die Daten dynamisch, statisch, werden sie von Zeit zu Zeit aktualisiert oder werden sie in Echtzeit aktualisiert? 
Ihre Rechte Sind die Daten geschützt, öffentlich oder persönlich (d. h. auf identifizierbare Personen bezogen)?  
Identifizierbarkeit personenbezogener Daten  Werden personenbezogene Daten anonymisiert oder pseudonymisiert?  
Struktur der Daten Sind die Daten strukturiert, halbstrukturiert, komplex strukturiert oder unstrukturiert? 
Format der Daten  Ist das Format der Daten und Metadaten standardisiert oder nicht standardisiert?  
Umfang der Daten  Wie groß ist der Datensatz?  
Angemessenheit und Qualität der Daten Ist der Datensatz für den Zweck geeignet? Ist die Stichprobengröße ausreichend? Ist es repräsentativ und vollständig genug? Wie verrauscht sind die Daten? Ist es fehleranfällig?  
Modell            Informationsverfügbarkeit  Sind Informationen zum Systemmodell verfügbar?  
Art des KI-Modells  Ist das Modell symbolisch (vom Menschen erstellte Regeln), statistisch (verwendet Daten) oder hybrid?  
Mit dem Modell verbundene Rechte  Ist das Modell Open Source oder proprietär und wird es selbst oder von Dritten verwaltet? 
Einzelne oder mehrere Modelle  Besteht das System aus einem Modell oder mehreren miteinander verbundenen Modellen?  
Generativ oder diskriminativ Ist das Modell generativ, diskriminativ oder beides?  
Modellbau  Lernt das System auf der Grundlage von Menschen geschriebener Regeln, aus Daten, durch überwachtes Lernen oder durch verstärkendes Lernen?  
Modellentwicklung (KI-Drift) Entwickelt sich das Modell weiter und/oder erwirbt es Fähigkeiten durch die Interaktion mit Daten im Feld?  
Föderiertes oder zentrales Lernen Wird das Modell zentral oder auf mehreren lokalen Servern oder „Edge“-Geräten trainiert?  
Entwicklung und Wartung  Ist das Modell universell, anpassbar oder auf die Daten des KI-Akteurs zugeschnitten?  
Deterministisch oder probabilistisch  Wird das Modell deterministisch oder probabilistisch verwendet?  
Modelltransparenz  Stehen Benutzern Informationen zur Verfügung, die es ihnen ermöglichen, Modellausgaben und -beschränkungen oder Nutzungsbeschränkungen zu verstehen?  
Rechenbeschränkung Gibt es rechnerische Einschränkungen des Systems? Können wir Fähigkeitssprünge oder Skalierungsgesetze vorhersagen? 
Dimensionen der Wirkung Eigenschaften Beschreibung 
Aufgabe und Ausgabe      Vom System ausgeführte Aufgabe(n). Welche Aufgaben übernimmt das System (z. B. Erkennung, Ereigniserkennung, Prognose)?  
Aufgaben und Aktionen kombinieren  Kombiniert das System mehrere Aufgaben und Aktionen (z. B. Content-Generierungssysteme, autonome Systeme, Steuerungssysteme)?  
Autonomiegrad des Systems Wie autonom sind die Handlungen des Systems und welche Rolle spielt der Mensch?  
Grad der menschlichen Beteiligung Gibt es eine gewisse menschliche Beteiligung, um die Gesamtaktivität des KI-Systems zu überwachen und zu entscheiden, wann und wie das System in jeder Situation eingesetzt werden soll? 
Kernanwendung Gehört das System zu einem Kernanwendungsbereich wie menschliche Sprachtechnologien, Computer Vision, Automatisierung und/oder Optimierung oder Robotik?  
Evaluierung  Stehen Standards oder Methoden zur Bewertung der Systemleistung oder zum Umgang mit unvorhergesehenen auftretenden Eigenschaften zur Verfügung?  

Schlüssel zu Quellen der Deskriptoren

Klartext:
Gluckman, P. und Allen, K. 2018. Wohlbefinden im Kontext der schnellen digitalen und damit verbundenen Transformationen verstehen. INGSA. https://ingsa.org/wp-content/uploads/2023/01/INGSA-Digital-Wellbeing-Sept18.pdf 

Fett geschriebener Text:
OECD. 2022. OECD-Rahmen zur Klassifizierung von KI-Systemen. OECD Digital Economy Papers, Nr. 323, OECD Publishing, Paris. https://oecd.ai/en/classification 

Kursiv Text:
Neue Deskriptoren (aus mehreren Quellen) 

Ein Weg nach vorne

Abhängig von der Reaktion auf dieses Diskussionspapier würde das ISC eine Expertenarbeitsgruppe bilden, um den oben genannten Analyserahmen weiterzuentwickeln oder zu ändern, anhand dessen die Interessenträger alle wichtigen Entwicklungen entweder der Plattformen oder der Nutzungsdimensionen umfassend untersuchen könnten. Die Arbeitsgruppe würde disziplinär, geografisch und demografisch vielfältig sein und über Fachwissen verfügen, das von der Technologiebewertung bis zur öffentlichen Politik, von der menschlichen Entwicklung bis zur Soziologie sowie Zukunfts- und Technologiestudien reicht. 

Um sich an diesem Diskussionspapier zu beteiligen, besuchen Sie bitte Council.science/publications/framework-digital-technologies 

Danksagung

Bei der Entwicklung dieses Papiers wurden viele Personen konsultiert. Es wurde von Sir Peter Gluckman, Präsident des ISC, und Hema Sridhar, ehemaliger Chefwissenschaftler des Verteidigungsministeriums und jetzt leitender wissenschaftlicher Mitarbeiter der University of Auckland, Neuseeland, verfasst. 

Insbesondere danken wir Lord Martin Rees, ehemaliger Präsident der Royal Society und Mitbegründer des Centre for the Study of Existential Risks, University of Cambridge; Professor Shivaji Sondhi, Professor für Physik, Universität Oxford; Professor K. Vijay Raghavan, ehemaliger wissenschaftlicher Hauptberater der indischen Regierung; Amandeep Singh Gill, Gesandter des UN-Generalsekretärs für Technologie; Dr. Seán Óh Éigeartaigh, Geschäftsführer, Centre for the Study of Existential Risks, University of Cambridge; Amanda-June Brawner, Senior Policy Adviser und Ian Wiggins, Direktor für internationale Angelegenheiten, Royal Society UK; Dr. Jerome Duberry, Dr. Marie-Laure Salles, Direktorin, Geneva Graduate Institute; Herr Chor Pharn Lee, Centre for Strategic Futures, Büro des Premierministers, Singapur; Barend Mons und Dr. Simon Hodson, Ausschuss für Daten (CoDATA); Prof. Yuko Harayama, Japan; Professor Rémi Quirion, Präsident, INGSA; Dr. Claire Craig, Universität Oxford und ehemalige Leiterin der Zukunftsforschung, Government Office of Science; und Prof. Yoshua Bengio, Wissenschaftlicher Beirat des UN-Generalsekretärs und an der Université de Montréal. Der Checklisten-Ansatz wurde allgemein befürwortet und die Aktualität aller Maßnahmen des ISC betont. 


An der Diskussion teilnehmen

Bild: Adamichi auf iStock

Zum Inhalt