Log in

Werbe Anzeige:

Organoide Intelligenz (OI): die neue Grenze des Biocomputing und der "Intelligenz in der Schüssel"

Wie auch bei anderen wissenschaftlichen und biotechnologischen Aspekten der künstlichen Intelligenz handelt es sich um echtes Neuland Wie auch bei anderen wissenschaftlichen und biotechnologischen Aspekten der künstlichen Intelligenz handelt es sich um echtes Neuland

Ethik des biologischen Rechnens mit Organoiden

Die Schaffung eines menschlichen Gehirnmodells mit Eingabe- und Ausgabe- sowie Lernfähigkeiten wirft komplexe ethische Fragen auf. In der 12. Woche der fötalen Entwicklung hat ein menschliches Gehirn ein Gewicht von etwa 3 g, ein Volumen von etwa 3,5 ml und 3 × 109 Zellen im neokortikalen Teil des fötalen Telenzephalons (214-216). Ein erwachsenes Mausgehirn wiegt etwa 0,4 g. Im Vergleich dazu haben die heutigen Hirnorganoide in Kultur einen Durchmesser von weniger als 500 μm und weniger als 100 000 Zellen. Die Reifung des Hirnorganoids wird durch Wachstumsfaktoren beschleunigt, so dass Organoide in der 10. Woche der Kultur einige Merkmale (wie die Myelinisierung) aufweisen, die beim Fötus erst nach 20 Schwangerschaftswochen beginnen (217). Darüber hinaus könnte die Stimulation mit Informationen zu einer sehr unterschiedlichen Entwicklung der Organoide führen, und für das Training der Organoide wären sehr viel längere Kulturzeiten denkbar, die zusammen möglicherweise die kognitiven Fähigkeiten verbessern würden.

Die ethischen Bedenken, die durch die Erforschung von Hirnorganoiden aufgeworfen wurden, konzentrierten sich hauptsächlich auf Fragen zur Schaffung von Entitäten, die potenziell ein Bewusstsein haben könnten (45). Könnten Organoide Schmerzen empfinden, und wenn ja, würden sie leiden - und sei es auch nur in rudimentärer Form? Diese Bedenken werden im Laufe der Entwicklung der künstlichen Intelligenz zunehmen, wenn die Organoide strukturell komplexer werden, Inputs empfangen, Outputs erzeugen und - zumindest theoretisch - Informationen über ihre Umgebung verarbeiten und ein primitives Gedächtnis aufbauen. Dies erfordert eine eingehendere Analyse und Erforschung der moralisch bedeutsamen neurobiologischen Merkmale, die zu den menschlichen Fähigkeiten, einschließlich des Bewusstseins, beitragen, sowie der Auswirkungen auf die Forschung und Umsetzung der künstlichen Intelligenz, wenn einige oder alle dieser Merkmale erfüllt sind. Die Formulierung der physiologischen Bedingungen, die für das Bewusstsein notwendig und ausreichend sind, ist eines der schwierigsten Rätsel der Neurowissenschaften (143, 218). Um beurteilen zu können, ob Organoide die Kriterien für das Bewusstsein erfüllen, muss ein gewisser Konsens darüber erzielt werden, was diese Kriterien sind (219). Die laufenden Arbeiten zur Aufdeckung der neuronalen Grundlagen des Bewusstseins werden die Bewertung der ethischen Fragen, die durch die künstliche Intelligenz aufgeworfen werden, beeinflussen. Es wird jedoch auch wichtig sein, das "Bewusstsein" von der "Empfindungsfähigkeit" abzugrenzen, die formal als "Bewusstsein für Reize", d. h. als Reaktion auf Sinneseindrücke, betrachtet wird (220, 221). Eine solche Verwendung der Terminologie kann diskutiert werden und stellt eine kritische Herausforderung für die sich formierende OI-Gemeinschaft dar. Wir verwenden den Begriff "Empfindungsvermögen" in seiner grundlegendsten Form, ähnlich wie viele Aspekte der Kognition als sehr grundlegende zelluläre Mechanismen und nicht als Gehirnfunktionen auf menschlicher Ebene verstanden werden müssen. Selbst neuere Vorschläge (222) für die Verwendung des Störungs-Komplexitäts-Index (PCI) gehen von der komplexeren Idee des phänomenologischen Bewusstseins aus, obwohl das Verhalten durch einfachere Empfindungen erklärt werden könnte (174). Bemerkenswert ist, dass das vorgeschlagene OI-Programm nicht darauf abzielt, das menschliche Bewusstsein nachzubilden, sondern eher funktionelle Aspekte im Zusammenhang mit Lernen, Kognition und Computertechnik.

In dem Maße, in dem Fortschritte in der strukturellen und funktionellen Komplexität von Systemen der künstlichen Intelligenz Aspekte menschlicher neurobiologischer (Teil-)Prozesse wie Lernen und Kognition zu rekapitulieren beginnen, werden Forscher jedoch unweigerlich auf das Greely-Dilemma stoßen: eine Situation, in der schrittweise Erfolge bei der Modellierung von Aspekten des menschlichen Gehirns dieselbe Art von ethischen Bedenken aufwerfen werden, die ursprünglich der Grund für ihre Entwicklung waren (223). Ausreichende Fortschritte in der künstlichen Intelligenz werden Fragen nach dem moralischen Status dieser Entitäten und Sorgen um ihr Wohlergehen aufwerfen. Es wurden Rahmenwerke vorgeschlagen, um diese ethischen Bedenken in der Forschungspraxis zu berücksichtigen (224, 225), aber es ist nicht bekannt, ob diese Vorschläge die moralischen Bedenken der Öffentlichkeit angemessen berücksichtigen. So gelingt es beispielsweise häufig nicht, öffentliche Unterstützung für Maßnahmen zur Schadensbegrenzung zu gewinnen, wenn die zugrunde liegende Haltung auf einer moralischen Überzeugung beruht (226), was Auswirkungen auf den öffentlichen Diskurs hat (227). Eine umfassende ethische Analyse von OI erfordert den Beitrag verschiedener Öffentlichkeiten und relevanter Interessengruppen (228), um (i) zu verhindern, dass Missverständnisse zu unbeabsichtigten moralischen Bewertungen führen, und um durch verantwortungsvolles öffentliches Engagement Vertrauen, Zuversicht und Einbeziehung zu fördern. Moralische Einstellungen gegenüber OI hängen möglicherweise weniger von den oben erwähnten erkenntnistheoretischen Aspekten ab, wie z. B. der Rolle spezifischer kognitiver Fähigkeiten bei der Beurteilung des moralischen Status, sondern eher von ontologischen Argumenten darüber, was einen Menschen ausmacht. Die Vorstellung von der (Wieder-)Erschaffung "menschenähnlicher" Wesen im Labor dürfte Bedenken hinsichtlich der Verletzung der Menschenwürde hervorrufen, die säkulare oder theologische Überzeugungen über die "wesentliche" Natur des Menschen widerspiegeln könnten (229, 230). Unser Ansatz für eine eingebettete Ethik in der künstlichen Intelligenz wird versuchen, diese ethischen Bedenken zu erkennen und zu berücksichtigen, indem wir die künftige öffentliche Auseinandersetzung mit der künstlichen Intelligenz und die Beratungen darüber unterstützen.

Weitere Themen, die voraussichtlich Beachtung finden müssen, sind der Schutz der Privatsphäre von iPSC-Spendern und Aspekte des geistigen Eigentums. Was sagt das Organoid über den Zellspender aus? Besteht eine moralische Verpflichtung, den Spender zu informieren, wenn z. B. bei der Forschung etwas festgestellt wird, das für seine Gesundheit relevant ist? Haben Spender Rechte, die über die Spende hinausgehen?

Wie auch bei anderen wissenschaftlichen und biotechnologischen Aspekten der künstlichen Intelligenz handelt es sich um echtes Neuland. Es ist zu erwarten, dass sich die ethischen Überlegungen und Standpunkte mit dem zunehmenden Verständnis organoider Systeme weiterentwickeln werden. Daher ist es von entscheidender Bedeutung, die ethischen Erwägungen zu Beginn dieser Forschung in einer Weise zu formulieren, die alle zu erwartenden Fragen einschließt und die Fortschritte und neuen Erkenntnisse kontinuierlich berücksichtigt. Wir schlagen vor, einen "eingebetteten Ethik"-Ansatz zu verwenden, bei dem ein Ethik-Team ethische Fragen identifiziert, diskutiert und analysiert, sobald sie im Laufe dieser Arbeit auftreten. Eingebettete Ethik ist ein Standardansatz in der interdisziplinären Ethikforschung, bei dem Ethikexperten mit Forschungs- und Entwicklungsteams zusammenarbeiten, um ethische Fragen in einem iterativen und kontinuierlichen Prozess zu erörtern und zu behandeln, während sich die Forschung weiterentwickelt 

Der Ansatz der eingebetteten Ethik bietet zwar einen Mechanismus zur Untersuchung der philosophischen und wissenschaftlichen Bedingungen, die für den moralischen Status von Hirnorganoiden relevant sind, aber er verfügt über keine inhärenten Mechanismen zur Suche, Identifizierung oder Einbeziehung öffentlicher Werte in die Entwicklung von OI. Es ist wichtig, die öffentliche Wahrnehmung von OI zu verstehen, und dies kann nicht allein an Ethiker delegiert werden. Sie muss als dreifache Feedbackschleife in das Feld eingebettet werden, an der Forscher, Ethiker und Mitglieder der Öffentlichkeit beteiligt sind, einschließlich der Interessengruppen, die von Fortschritten in der Informationsfreiheit besonders betroffen sein könnten (z. B. Befürworter der Neurodiversität). Diese Rückkopplungsschleife wird es ermöglichen, dass spezifische Anwendungen der OI von Forschern formuliert, von Ethikern auf der Grundlage theoretischer Prinzipien analysiert und von Mitgliedern der Öffentlichkeit mit unterschiedlichen moralischen Perspektiven bewertet werden. Die von der Öffentlichkeit geäußerten Ansichten fließen dann in die Arbeit von Wissenschaftlern und Ethikern ein, die versuchen, die Informationsgesellschaft in einer sozialverträglichen Weise voranzubringen. Dieser Aufruf zum öffentlichen Dialog wurde in einem Bericht der Nationalen Akademie der Wissenschaften über menschliche neurale Organoide (232), in den Empfehlungen der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (233) zur Innovation in der Neurotechnologie und in verschiedenen Neuroethik-Ausschüssen aufgegriffen. Darüber hinaus haben Forscher auf dem Gebiet der Wissenschaftskommunikation und der deliberativen Demokratie gezeigt, dass deliberative Techniken einer der wirksamsten Mechanismen sind, um die Öffentlichkeit zu informieren und das Risiko der Polarisierung bei strittigen Themen zu mindern. Schließlich ist ein öffentliches Engagement im Bereich der Informationsgesellschaft nicht nur notwendig, um negative öffentliche Reaktionen zu verhindern, sondern auch, um die zukünftige Wirkung des Fachgebiets zu maximieren und als Beispiel dafür zu dienen, wie die Gesellschaft in die Wissenschaft eingebunden werden kann.

Quelle: FrontierSin

Image by Gerd Altmann from Pixabay