NA, 31/10/2022
Por Loz Blain
Pesquisadores na Coreia do Sul desenvolveram um dispositivo LiDAR ultra-pequeno e ultrafino que divide um único feixe de laser em 10.000 pontos cobrindo um campo de visão de 180 graus sem precedentes. É capaz de mapear a profundidade em 3D de um hemisfério de visão inteiro em um único pulsar.
Carros e robôs autônomos precisam ser capazes de perceber o mundo ao seu redor com uma precisão incrível para que sejam seguros e úteis nas condições do mundo real. Em humanos e outras entidades biológicas autônomas, isso requer uma variedade de sentidos diferentes e um processamento de dados em tempo real bastante extraordinário, e o mesmo provavelmente será verdade para nossos descendentes tecnológicos.
LiDAR – abreviação de Light Detection and Ranging – existe desde a década de 1960, e agora é uma tecnologia de alcance bem estabelecida que é particularmente útil no desenvolvimento de representações 3D de nuvens de pontos de um determinado espaço. Funciona um pouco como um sonar, mas em vez de pulsos sonoros, os dispositivos LiDAR enviam pulsos curtos de luz laser e, em seguida, medem a luz refletida ou retroespalhada quando esses pulsos atingem um objeto.
LiDAR definição: Lidar é uma tecnologia óptica de detecção remota que mede propriedades da luz refletida de modo a obter a distância e/ou outra informação a respeito de um determinado objeto distante. O método mais utilizado para determinar a distância a um objeto é a utilização de laser pulsão.
O tempo entre o pulso de luz inicial e o pulso de retorno, multiplicado pela velocidade da luz e dividido por dois, informa a distância entre a unidade LiDAR e um determinado ponto no espaço. Se você medir vários pontos repetidamente ao longo do tempo, obterá um modelo 3D desse espaço, com informações sobre distância, forma e velocidade relativa, que pode ser usada em conjunto com fluxos de dados de câmeras multiponto, sensores ultrassônicos e outros sistemas para concretizar a compreensão de um sistema autônomo de seu ambiente.
De acordo com pesquisadores da Universidade de Ciência e Tecnologia de Pohang (POSTECH) na Coréia do Sul, um dos principais problemas com a tecnologia LiDAR existente é seu campo de visão. Se você deseja criar imagens de uma área ampla a partir de um único ponto, a única maneira de fazer isso é girar mecanicamente seu dispositivo LiDAR ou girar um espelho para direcionar o feixe. Esse tipo de equipamento pode ser volumoso, faminto por energia e frágil. Ele tende a se desgastar rapidamente, e a velocidade de rotação limita a frequência com que você pode medir cada ponto, reduzindo a taxa de quadros de seus dados 3D.
Os sistemas LiDAR de estado sólido, por outro lado, não usam partes móveis físicas. Alguns deles, de acordo com os pesquisadores – como os sensores de profundidade que a Apple usa para garantir que você não esteja enganando o sistema de desbloqueio de detecção de rosto de um iPhone segurando uma foto plana do rosto do proprietário – projetam uma série de pontos todos juntos e olham para distorção nos pontos e os padrões para discernir informações de forma e distância. Mas o campo de visão e a resolução são limitados, e a equipe diz que ainda são dispositivos relativamente grandes.
A equipe de Pohang decidiu buscar o menor sistema de detecção de profundidade possível com o maior campo de visão possível, usando as extraordinárias habilidades de flexão de luz das metasuperfícies. Essas nanoestruturas 2-D, com um milésimo da largura de um cabelo humano, podem efetivamente ser vistas como lentes ultraplanas, construídas a partir de matrizes de elementos nanopilares individuais minúsculos e precisamente moldados. A luz que entra é dividida em várias direções à medida que se move através de uma metasuperfície e, com o design correto da matriz nanopilar, porções dessa luz podem ser difratadas em um ângulo de quase 90 graus. Um ultra-olho de peixe completamente plano, se quiser.
Os pesquisadores projetaram e construíram um dispositivo que dispara luz laser através de uma lente de metasuperfície com nanopilares ajustados para dividi-la em cerca de 10.000 pontos, cobrindo um campo de visão extremo de 180 graus. O dispositivo então interpreta a luz refletida ou retroespalhada por meio de uma câmera para fornecer medições de distância.
"Nós provamos que podemos controlar a propagação da luz em todos os ângulos desenvolvendo uma tecnologia mais avançada do que os dispositivos convencionais de metasuperfície", disse o professor Junsuk Rho, coautor de um novo estudo publicado na Nature Communications. “Esta será uma tecnologia original que permitirá uma plataforma de sensor de imagem 3D ultrapequena e de espaço completo”.
A intensidade da luz diminui à medida que os ângulos de difração se tornam mais extremos; um ponto dobrado em um ângulo de 10 graus atingiu seu alvo com quatro a sete vezes a potência de um ponto dobrado perto de 90 graus. Com o equipamento em sua configuração de laboratório, os pesquisadores descobriram que obtiveram melhores resultados dentro de um ângulo de visão máximo de 60° (representando um campo de visão de 120°) e uma distância inferior a 1 m (3,3 pés) entre o sensor e o objeto. Eles dizem que lasers de maior potência e metasuperfícies ajustadas com mais precisão aumentarão o ponto ideal desses sensores, mas a alta resolução em distâncias maiores sempre será um desafio com lentes ultralargas como essas.
Outra limitação potencial aqui é o processamento de imagem. O algoritmo de "desvio de ponto coerente" usado para decodificar os dados do sensor em uma nuvem de pontos 3D é altamente complexo e o tempo de processamento aumenta com a contagem de pontos. Portanto, capturas full-frame de alta resolução decodificando 10.000 pontos ou mais sobrecarregarão os processadores, e fazer com que esse sistema funcione acima de 30 quadros por segundo será um grande desafio.
Por outro lado, essas coisas são incrivelmente pequenas e as metasuperfícies podem ser fabricadas de maneira fácil e barata em grande escala. A equipe imprimiu um na superfície curva de um conjunto de óculos de segurança. É tão pequeno que você mal o distinguiria de uma partícula de poeira. E esse é o potencial aqui; Os dispositivos de mapeamento de profundidade baseados em metasuperfície podem ser incrivelmente pequenos e facilmente integrados ao design de uma variedade de objetos, com seu campo de visão ajustado para um ângulo que faça sentido para a aplicação.
A equipe vê esses dispositivos como tendo um enorme potencial em coisas como dispositivos móveis, robótica, carros autônomos e coisas como óculos VR/AR. Coisas muito legais!
Artigos recomendados: Dados e Tech
Nenhum comentário:
Postar um comentário