Qiskit Summer School 2021 — Quantum Machine Learning

Brazil Quantum
3 min readJul 30, 2021

Por: Arnaldo Gunzi

O Qiskit Summer School é um evento patrocinado pela IBM, para divulgação de computação quântica. Qiskit é o nome da linguagem desenvolvida pela IBM. Este ano, foi a segunda edição do evento, e o tema foi Quantum Machine Learning.

Uma primeira curiosidade, é que este ano foram 5000 vagas (ano passado, 2000), e essas acabaram em poucos minutos após a abertura das inscrições. Bastante gente reclamou que entrou exatamente no horário de abertura e já via o número de vagas esgotada. Isso mostra o interesse crescente pelo tema — e o privilégio de assistir as aulas.

Foram duas semanas de aulas, e 5 rodadas de laboratórios — cada qual com número variável de exercícios valendo nota.

Resumo rápido do conteúdo.

Semana 1:

  • Circuitos básicos
  • Algoritmos simples
  • Ruído em computadores quânticos
  • Machine learning clássico
  • Quantum classifier
  • QAOA

Mais da metade da semana 1 foi de conteúdo básico, só no finalzinho que realmente começou a ficar divertido. O conteúdo até falou de machine learning clássico (redes neurais, backpropagation), mas o foco foi em cima de Support Vector Machines, uma técnica de classificação um pouco diferente.

Por fim, introdução à técnica de otimização QAOA, que é um misto de quântico com clássico: a representação do problema é por um circuito quântico, porém a otimização dos parâmetros, via métodos clássicos.

O lab dos circuitos básicos foi tranquilo, o da parte SVM e QAOA deu um pouco mais de trabalho, mas nada impossível. Não posso divulgar minhas respostas, por enquanto. Vou esperar a IBM liberar oficialmente o conteúdo do curso para o público em geral.

Semana 2:

  • Classificadores lineares
  • Quantum kernel
  • Treinamento de circuitos quânticos
  • Hardware e ruído
  • Capacidade e circuitos avançados
  • Encerramento e discussões sobre rumos futuros

A melhor parte do curso foi a semana 2. Conhecimento de ponta, com conteúdo que não tem nem três anos desde a primeira citação.

O Support Vector Machine tem uma limitação, que é o fato de ser linear. É possível fazer um truque para contornar: pegar os mesmos dados e representá-los de forma não linear, através de um feature map. O kernel é uma generalização do feature map, para uma função mais complexa.

Pode haver vantagem quântica exponencial se a função for complicada para representar classicamente e simples de representar quanticamente — mas isso também não é garantido sempre.

Carregar dados em estados quânticos pode ter custo exponencial, o que pode jogar por terra qualquer vantagem quântica — uma solução possível é utilizar um esquema aproximado de dados, perdendo uma parte pequena da informação.

Muito impressionante é uma pesquisadora chamada Amira Abbas. Ela deu umas três aulas ou mais. Bastante didática, nova (assim como todos ali), realmente manjava do conteúdo — para quem se interessa pelo tema, vale a pena acompanhá-la.

Uma discussão bastante interessante foi a de capacidade. Em machine learning clássico, temos sempre o dilema underfitting (modelo fraco demais) — overfitting (parâmetros demais, o que causa perda de generalização). Sempre achei que isso era apenas dependendo do tamanho do modelo, mas foi demonstrado, através de experimento de labels aleatórios, que os dados também influem. Desde então, está havendo diversas propostas de medir a capacidade não só em função do tamanho, mas de características bem específicas dos dados também.

Sobre os labs: em geral, não foi difícil. Era basicamente seguir o roteiro dado pelos professores. Algumas poucas linhas, e a maioria já estava pronto. Tenho a impressão de que o Summer School foca mais na aula e no conteúdo teórico, e menos nos labs em si. Para códigos difíceis, a IBM lança os desafios.

Agradeço à IBM pela iniciativa, pelo conteúdo de mais alto nível disponibilizado, e parabenizo pela liderança no tema!

Arnaldo Gunzi é gerente de projetos analíticos na Klabin S. A. e apaixonado pelo nascente campo de computação quântica.

--

--