Des de l’algorisme de transformació ràpida de Fourier fins a l’aprenentatge de xarxes neuronals profundes i la computació quàntica amb Alexander Dorogov

Estem parlant amb el professor del Departament d’Automatització i Processos de Control de la Universitat Electrotècnica de Sant Petersburg, Doctor en Enginyeria, Alexander Yuryevich Dorogov, sobre les aplicacions dels algorismes de transformació ràpida en el camp de la neuroinformática i la computació quàntica.

Un conjunt d’algorismes anomenats algorismes ràpids de transformació de Fourier (FFT) va entrar en la pràctica de l’anàlisi espectral en la dècada de 1960, començant amb el treball de Cooley-Tukey.

És ben sabut quin paper important en el processament de senyals va jugar el descobriment de l’algorisme de transformació ràpida de Fourier.

El seu ús ens va permetre reduir dràsticament el nombre d’operacions computacionals en realitzar transformacions espectrals, la qual cosa va ampliar significativament l’abast de l’anàlisi espectral utilitzada per al processament de dades.

Com va usar els principis i avantatges de l’algorisme de la transformada ràpida de Fourier en la teoria de xarxes neuronals artificials?

Els algorismes FFT tenen una estructura multicapa pronunciada similar a l’estructura dels perceptrones multicapa, per tant, l’ús de la ideologia FFT per a construir xarxes neuronals és una solució natural. Per a fer això, és suficient reemplaçar els valors constants de les operacions de papallona amb pesos sinápticos ajustables.

Cal assenyalar que el primer pas en aquesta direcció es va prendre fa molt temps. Una descripció analítica d’algorismes ràpids per a transformacions espectrals generalitzades va ser retornada en el treball històric de Good (1958). La transformació espectral generalitzada (o transformació adaptada) des de la perspectiva actual pot considerar-se com una xarxa neuronal amb funcions d’activació lineal.

Quina és la diferència entre les xarxes neuronals ràpides propostes (FNN) i les xarxes neuronals convencionals?

A diferència de les xarxes de distribució directa, FNN té una organització modular en la que els mòduls (nuclis neuronals) estan connectats a una xarxa multicapa regular.

Les característiques estructurals de FNN eliminen la “maledicció de dimensionalitat” que permet que aquest tipus de xarxa s’apliqui per a processar matrius de dades grans i extra grans. A més, el procediment d’entrenament convergeix absolutament en un nombre finit de passos igual al nombre de capes de la xarxa neuronal.

En termes de transformacions adaptades, el procés d’aprenentatge generalment es diu ajust. Una tasca típica per a una transformació a mesura és establir funcions bàsiques per a un sistema donat, per exemple, la base de Fourier, Hadamard (Walsh), etc. El automodelado de l’estructura FNN a l’estructura dels productes tensorials d’espais vectorials els permet usat per a construir algorismes de computació quàntica.

Quina és la idea d’aplicar algorismes FFT reconfigurables per a ressaltar els components principals en el reconeixement de patrons?

Amb freqüència, el component principal es pot distingir directament del senyal com a imatge basi, contra la qual s’observen totes les variacions de senyal.

Atès que l’energia del senyal està determinada per la suma dels quadrats dels coeficients espectrals, la importància de la característica informativa pot jutjar-se directament pel valor del coeficient espectral.

Una transformació ortogonal que s’ajusta a un component principal pertany a la classe adaptada. A causa de l’ortogonalitat, el resultat de la transformació adaptada a la imatge basi és el vector de sortida, en el qual una de les coordenades és igual a la unitat, mentre que totes les altres coordenades són iguals a zero. Per tant, la transformació ortogonal adaptada és ideal per al reconeixement selectiu d’un senyal basi.

Es sap que les xarxes neuronals serveixen com a generadors d’estructures fractals. És possible aproximar una xarxa neuronal a fractals regulars?

El món que ens envolta està ple de fractals en major mesura que amb els objectes que ens són “familiars”. Un bon exemple són els sistemes dinàmics aparentment ben estudiats. Els estudis moderns han demostrat que els conjunts d’atracció fractal (atractores) són característics dels sistemes dinàmics no lineals en l’espai de coordenades de fase. Els atractores fractals estan associats amb els anomenats escenaris de caos dinàmic, que defineixen els límits de la possible predicció del comportament dels sistemes dinàmics.

Els FNN són estructures regulars per a la seva construcció; Es pot demostrar que aquestes estructures tenen la propietat d’acte-similitud. Per tant, qualsevol fractal normal pot aproximar-se en la classe FNN. El tipus fractal imposa algunes restriccions en els paràmetres de la xarxa neuronal.

Quina és la relació entre les xarxes neuronals ràpides i les xarxes neuronals d’aprenentatge profund?

Una petita modificació de l’algorisme de síntesi estructural FNN condueix a arquitectures de xarxa d’aprenentatge profund amb molts plans en capes neurales. La nova topologia de xarxa està ideològicament prop de les topologies de xarxa convolucionals d’aprenentatge profund, però és regular.

Els mètodes d’entrenament FNN es transfereixen sense modificació a una nova classe de xarxes, mentre que el nombre d’imatges recognoscibles augmenta dramàticament, cobrint tots els elements del pla de sortida.

La solució proposada li permet donar una resposta constructiva a les preguntes fonamentals de les xarxes neuronals d’aprenentatge profund: com triar una topologia i com reduir el temps d’aprenentatge de la xarxa.

Com s’utilitzen les xarxes neuronals ràpides per a construir algorismes de computació quàntica?

En una computadora quàntica, un bit analògic funcional és un qubit, que està associat amb un espai complex bidimensional. En 1994, Peter Shor va demostrar que el difícil problema de NP (factorització sencera) pot resoldre’s en una computadora quàntica en temps polinòmic. Per a construir un càlcul quàntic efectiu, Shor va utilitzar una modificació de l’algorisme ràpid de Fourier amb base 2. Quan s’usa FNN en algorismes quàntics, tots els nuclis de la xarxa neuronal són estructuralment similars i són matrius de 2 × 2 unitats. Si tots els nuclis dins de la capa són paramètricament idèntics, llavors la capa neural s’associa de manera única amb un qubit de registre quàntic. En aquest cas, l’operador d’unitat equivalent de la xarxa neuronal, que descriu l’evolució de l’estat del registre qubit n-dimensional, s’expressa mitjançant el producte Kronecker de les matrius dels nuclis neuronals. Cal assenyalar que una simulació de registre quàntic en una computadora comuna condueix a un problema NP-difícil.

En la versió quàntica, la imatge és l’estat quàntic del registre. La tasca de reconeixement de patrons es redueix a la creació d’una transformació unitària, que forma un dels estats bàsics del registre amb una probabilitat pròxima o igual a un. L’aprenentatge de la xarxa neuronal es converteix en una funció de descomposició fractal i ajust dels paràmetres dels nuclis neurales.

Els mètodes de descomposició es basen en la filtració fractal i difereixen només en la naturalesa complexa dels filtres fractals.

Si l’estat inicial del registre quàntic coincideix amb la funció d’imatge, després de l’exposició a l’operador de la xarxa neuronal, l’estat quàntic coincidirà exactament amb un dels estats bàsics. En el cas general, FNN realitza transformacions elementals en els estats d’un registre quàntic, en lloc de qubits individuals.

Entrevista: Ivan Stepanyan

Read more: Ciència i enginyeria modernes amb Ivan Stepanyan ...