Tilt: Qual o papel da NEC nas discussões sobre regulamentação, nos países onde ela tem contratos?
Michael O'Connell: Essa é a pergunta mais importante que você fez, e falo isso com toda a sinceridade, porque isso nos leva ao motivo de eu ter deixado de trabalhar para o governo e o ramo de policiamento, particularmente no Reino Unido, e ingressar em uma empresa como a NEC. Ela é uma das "casas de tecnologia" que busca mudar seu papel e sua responsabilidade na sociedade. Ela começar a entender que criou todas essas coisas sofisticadas e, agora, precisa adicionar camadas em torno isso. Tentamos promover os valores sociais e a confiança em torno dessas tecnologias.
Como você destacou, elas podem ser usadas incorretamente — nós não queremos que isso aconteça. Queremos que elas sejam usadas na proporção correta para o que ela foi criada, para causar um impacto positivo à sociedade. Nos últimos 18 meses, nós estabelecemos os nossos valores sociais para a corporação e desenvolvemos um nível mais alto de interpretação do papel de liderança que desempenhamos globalmente.
Tilt: O que você quer dizer com isso, na prática?
Michael O'Connell: Trouxemos um time de confiança digital que garante que a corporação, todas suas autoridades e suas tecnologias estão de acordo com um modelo de proporcionalidade e de transparência na maneira que as tecnologias são usadas, respeitando, obviamente, alguns interesses comerciais em torno da propriedade intelectual. [De transparência] com quem nós vamos considerar fazer negócio, como vamos educar potenciais clientes e como vamos garantir que nossas tecnologias providenciem o nível mais alto de precisão possível, ou seja, para que a taxa de erro seja a menor possível se você decidir usar essas tecnologias de uma forma que afete a privacidade e a identificação das pessoas. Ninguém quer ser identificado equivocadamente e estar sujeito a controles ou perturbação de qualquer tipo. É por isso que a NEC gastou tanto tempo trabalhando em um nível tão alto de especificações, tanto no que diz respeito às suas capacidades de detecção e identificação, como reconhecimento facial e de digitais, mas também nas inteligências artificiais, algoritmos e aprendizado de máquina que funcionam no segundo plano, ligam os pontos, aprendem e melhoram a funcionalidade operacional.
Tilt: Qual o seu papel nesse processo?
Michael O'Connell: Sou membro do conselho de diretores do Biometrics Institute [fórum internacional que se deu a missão de promover o uso responsável da biometria de forma independente e imparcial] e tenho colegas que nos dão apoio no time legal de privacidade de digital. Trabalhamos como uma comunidade para tentar promover a ética em torno do uso desses tipos de tecnologias, porque ainda estamos operando em um contexto quase sem regulamentação. Estamos tentando projetar, em vez de uma disputa por menos regulação, uma concorrência pelo melhor no sentido de normas, performance e comportamentos.
Trabalhamos na orientação a governos, organizações internacionais como a ONU, a OMC [Organização Mundial do Comércio] e o Fórum Econômico Mundial, sobre as normas e procedimentos que acreditamos que eles deveriam aspirar a criar. Apoiamos ativamente iniciativas como o GDPR [Regulamento Geral de Proteção de Dados, da sigla em inglês]. Não fugimos disso.
Tilt: Há artigos do GDPR ou outros textos regulatórios existentes que a NEC discorda por serem muito restritivos? Você acredita que o GDPR criou bons parâmetros de como a proteção da privacidade deve ser?
Michael O'Connell: Se você pega o GDPR, ele é, nesse estágio, um modelo regulatório não qualificado. Digo isso porque ele foi prescrito e lançado em um contexto ativo, mas haverá episódios que ele precisará ser desafiado na Justiça. Essa é uma abordagem de direito comum em que casos declarados surgirão e tentarão calibrá-lo. Alguns diriam que é bem arbitrário, que é tosco, e que atrapalha — o que é verdade. E há imposições de custos, tanto na aplicação quanto no caso de violações percebidas ou reais.
Na falta de qualquer outra coisa, ele permite e nos força a olhar profundamente para o ambiente operacional dessas tecnologias e isso não é só para biometria, mas para a aquisição de dados, o uso da internet, o Velho Oeste de exploração de indivíduos, seus estilos de vida, comportamentos, religiões e todas as tentativas de ganhos comerciais ou vantagens a partir disso.
Tilt: Onde você enxerga defeitos no GDPR?
Michael O'Connell: O que nós não queremos, naturalmente, é estar em uma posição em haja superregulação, porque isso vira debilitante a todos, um passo atrás para as oportunidades que podem receber essas tecnologias. Na saúde, há mecanismos para garantir que despersonalizemos as informações, mas podemos coletá-las e usá-las. Se exagerarmos nas regulamentações, algumas dessas oportunidades de criar novos remédios e soluções para nós mesmos e as futuras gerações podem ser minadas.
Temos que ser intuitivos nessa jornada e manter um rigor crítico perpetuamente, mas evoluindo para um modelo regulatório que seja ágil. É um desafio enorme para as autoridades regulatórias, porque elas precisam ser mais rápidas. Elas precisam estar atualizadas.