Come antipasto in Open CL, ho una domanda semplice comprensione per ottimizzare GPU Computing.
Per quanto ho capito posso fare cioè una matrice di 1000 x 1000 e mettere un codice ad ogni pixel allo stesso tempo utilizzando una GPU. Che cosa circa la seguente opzione:
Ho 100 volte a 100 x 100 matrici e bisogno di calcolare in modo diverso. Così ho bisogno di
fare la serie o posso iniziare a 100 casi, vale a dire comincio 100 multiprocesses Python e ogni sparo un calcolo matriciale per la GPU (assumning Thetre sono abbastanza risorse).Viceversa, ho una matrice di 1000 x 1000 e 100 diverso esempio per calcolare, posso fare questo come lo stesso tempo o elaborazione seriale?
Qualsiasi consiglio o un concetto come risolvere questo il modo più veloce è apprezzato
grazie Adrian