GPU-Aware: Simulac ¸˜ ao Distribu´ ıda de Algor´ ıtmos Qu ˆ anticos via VirD-GM Anderson B. de Avila 1 , Murilo F. Schmalfuss 1 , Renata H. S. Reiser 1 , Mauricio L. Pilla 1 1 Centro de Desenvolvimento Tecnol´ ogico Universidade Federal de Pelotas (UFPEL) Caixa Postal 15.064 - 91.501-970 - Pelotas - RS - Brasil {abdavila,mfschumalfuss,reiser,pilla}@inf.ufpel.edu.br Resumo. A principal contribuic ¸˜ ao deste trabalho ´ e a otimizac ¸˜ ao do ambiente VirD-GM, concebida em duas etapas: (i) o estudo te ´ orico e implementac ¸˜ ao das abstrac ¸˜ oes de Processos Mistos Parcias definidos no modelo qGM, visando a reduc ¸˜ ao no consumo de mem´ oria associado ` a transformac ¸˜ oes quˆ anticas mul- tidimensionais; (ii) e a implementac ¸˜ ao distribu´ ıda/paralela dessas abstrac ¸˜ oes para correspondente execuc ¸˜ ao sobre clusters de GPUs. 1. Introduc ¸˜ ao A simulac ¸˜ ao de algoritmos quˆ anticos em computadores cl´ assicos viabiliza o desenvolvi- mento e teste de algoritmos quˆ anticos, antecipando o conhecimento acerca de seu com- portamento quando da execuc ¸˜ ao sobre um hardware quˆ antico. A simulac ¸˜ ao de sistemas quˆ anticos atrav´ es de computadores cl´ assicos ainda se mostra um desafio de pesquisa em aberto, justificando o estudo de soluc ¸˜ oes voltadas para a simplificac ¸˜ ao no processo de modelagem e interpretac ¸˜ ao de algoritmos quˆ anticos [Nielsen and Chuang 2000]. Mais significante, as otimizac ¸˜ oes no ganho de desempenho da simulac ¸˜ ao contribuem para o suporte a sistemas quˆ anticos mais complexos. A principal contribuic ¸˜ ao deste trabalho consiste no aumento das capacidades de simulac ¸˜ ao do ambiente VirD-GM [Avila et al. 2014a] pelo estudo e implementac ¸˜ ao de abstrac ¸˜ oes presentes no modelo qGM para interpretac ¸˜ ao de transformac ¸˜ oes quˆ anticas a partir de Processos Mistos Parciais (MPPs) e a implementac ¸˜ ao dis- tribu´ ıda/paralela dessas abstrac ¸˜ oes para execuc ¸˜ ao em clusters de GPUs. 2. Resultados Com as computac ¸˜ oes baseadas em MPPs [Avila et al. 2014b], tem-se um gerenciamento do limite nas amplitudes acessadas e nos resultados destas computac ¸˜ oes. Dando controle sobre a granulosidade da computac ¸˜ ao de cada MPP. Para validac ¸˜ ao e an´ alise de desempe- nho foram considerados estudos de casos com tranformac ¸˜ oes quˆ anticas (TQs) Hadamard de at´ e 21 qubits (H ⊗18 , H ⊗19 , H ⊗20 e H ⊗21 ). Foram realizadas 10 simulac ¸˜ oes de cada instˆ ancia do operador Hadamard, con- siderando cada uma das configurac ¸˜ oes de MPPs poss´ ıveis dentro do cluster com quatro GPUs, sendo que o n ´ umero de MPPs nunca ultrapassa o n ´ umero de GPUs. As configurac ¸˜ oes de MPPs usadas s˜ ao descritas na forma R - W , onde R ´ eo n´ umero de partes em que a mem´ oria de leitura foi particionada e W ´ e o n´ umero de par- tes em que a mem´ oria de escrita foi particionada. O n´ umero de clientes usados para