Systeme in neuronaler Architektur sind grundlegenden Prinzipien neuronaler Informationsverarbeitung nachempfunden, wie sie in biologischer Gehirnen abläuft. Sie modellieren Netzwerke von Nervenzellen bzw. Neuronen, die lernen können, indem die Stärke der Verdrahtung zwischen diesen Nervenzellen durch geeignete Lernstrategien verändert werden kann. Die künstlichen Neuronen bzw. Units sind sehr einfach aufgebaute Prozessoren, die nur auf ihren lokalen Daten und den Informationen bzw. Signalen arbeiten, die sie von außen erhalten.
Die Grundidee besteht darin, die Konstruktion einer Anwendung in neuronaler Architektur darauf zu stützen, dass man dieser Beispiele aus der Anwendungsumgebung zeigt - häufig zusammen mit einer Belehrung - und zu erwarten, dass das neuronale System seine inneren Parameter nach und nach solange verändert, bis schließlich das gewünschte Verhalten erreicht ist und zwar selbst dann, wenn die statistische Verteilung der Eingabemuster unbekannt ist. Neuronale Netze werden also nicht programmiert, sondern an repräsentativen Musterkollektiven trainiert. Das Wissen eines neuronalen Netzes ist in seinen inneren Parametersätzen und der zugrundeliegenden Topologie abgelegt.
Neuronale Netze sind also hervorragend prädestiniert, um komplexe Zusammenhänge aus Beispielen zu erlernen. Sie eignen sich z.B. hervorragend für Zwecke der Mustererkennung.
Seit etwa 2010 hat sich das sog. Deep Learning (DL) etabliert. Dabei geht es um tiefgestaffelte neuronale Netze mit sehr vielen Neuronenschichten. Besondere Aufmerksamkeit gewann das Deep Learning in 2016 durch den spektakulären überlegenen Sieg des Deep Learning-Programms AlphaGo über den Go-Weltmeister Lee Sedol mit 4:1. Der Hersteller, die Fa. Deep Mind, wurde in der Zwischenzeit von Google übernommen. Die Libraries TensorFlow und Keras stellen heute eine Art Quasi-Standard dar, wenn es um die Realisierung von Deep Learning-Programmen geht.
Trotz beeindruckender Leistungen des Deep Learning wird zuweilen von Kritikern bemängelt, dass es kaum möglich ist, explizites Wissen aus den trainierten neuronalen Netzen zu extrahieren. Man versteht also nicht genau, wie ein solches Netz zu seiner Problemlösung kommt. Beklagt wird die mangelnde bzw. unzureichende Erklärfähigkeit neuronaler Netze; die Ergebnisse "fallen sozusagen vom Himmel". Die Kombination aus wissensbasierten und datengetriebenen Verfahren kann diese Lücke schließen. Hybride KI-Systeme sind in der Lage, die Vorteile beider Schulen – Wissensverarbeitung und Neuroinformatik – zu kombinieren. Dadurch werden KI-Anwendungen leistungsfähiger, erklärbar und damit besser nachvollziehbar.