Autopilot da Tesla seria enganável, podendo matar com uso indevido

É um engano pensar que já estão à venda nos Estados Unidos veículos autônomos. Na verdade, a automação total para uso geral em vias municipais e estradas nem mesmo deve se concretizar nesta década. O que existe, sim, é o modelo semiautônomo, capaz de se manter na pista, sem assistência do motorista, e reduzir a velocidade no caso de aproximação de um veículo à frente, além de alguns outros avanços que estão sendo introduzidos aos poucos, conforme reportagem de VEJA de 10 de março de 2021, edição nº 2728.

Esses carros com automação parcial, destacadamente os elétricos da Tesla, proporcionam certo conforto a quem está dirigindo, mas não foram feitos para se guiarem sozinhos. Em outras palavras, o motorista precisar ficar de olho no caminho, preparado para assumir o volante a qualquer momento, sob o risco de se envolver em acidentes que, dependendo das circunstâncias, podem ser fatais tanto para os ocupantes quanto para pedestres.

Aparentemente o uso indevido do Autopilot foi a causa do desastre ocorrido no sábado à noite, dia 17, na região de Houston, no estado do Texas. Um Tesla modelo S, ano 2019, colidiu em alta velocidade com uma árvore, pegando fogo e matando seus dois ocupantes, um homem de 59 anos e outro de 60. O caso ainda está sob investigação, mas acredita-se que não havia ninguém dirigindo quando o veículo bateu − o motorista estaria no assento do passageiro e o segundo ocupante, no banco de trás.

O bilionário Elon Musk, presidente da Tesla, se manifestou no twitter no dia 19, afirmando que os dados que o carro transmitiu à empresa indicam que o Autopilot nem mesmo estava acionado quando o impacto aconteceu, inferindo que a causa das mortes deveria ser outra.

Entretanto, a Consumer Reports (CR), entidade americana sem fins lucrativos que faz avaliação independente de produtos de consumo, provou em vídeo que as salvaguardas do sistema automático podem ser facilmente burladas. Utilizando um modelo semelhante da Tesla, um piloto da CR amarrou pesos no volante a fim de simular a pressão das mãos do motorista − uma das condições para que o Autopilot se mantenha ativado − e em seguida pulou para o assento do passageiro sem abrir a porta nem soltar o cinto de segurança. O resultado é que o Tesla continuou a dirigir sozinho, pois a inteligência artificial não se deu conta de que o motorista havia abandonado a direção.

Não é possível afirmar que os ocupantes do modelo S estivessem, por curiosidade ou brincadeira, fazendo o mesmo tipo de teste que a CR se propôs a fazer em condições controladas, mas, se for o caso, pode acontecer de as autoridades americanas exigirem que a Tesla inclua mais salvaguardas para o uso do piloto automático. Por outro lado, a Tesla deverá se defender nos tribunais alegando que não se responsabiliza por motoristas que, deliberadamente, buscam enganar a inteligência artificial do automóvel, assim como não pode impedir alguém de jogar propositadamente um veículo pesado contra um ciclista ou uma multidão.

 

 

 

Continua após a publicidade

Fontes Retirada do Site Veja Abril link da Matéria aqui….

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *