Estado da arte da digitalização 3D

Desde de algum tempo de que tenho vindo a conhecer a tecnologia de câmaras de detecção de profundidade com sensor da PrimeSense seja desde do manuseamento da Microsoft Kinect que já existe desde do final de 2009. O caso da fotometria como o App da Autodesk o 123D Catch sempre foi interessante com a abordagem de criar modelos 3D, mas as reconstruções tendem a falhar com frequência e sem qualquer tipo de aviso prévio e é sempre necessário um pós-processamento.
Meu interesse na tecnologia PrimeSense foram de poder encontrar uma maneira de aproveitar a base instalada de dispositivos Microsoft Kinect como dispositivos de aquisição 3D assim como como da infra-estrutura Xbox Live assim como para a construção de um scanner 3D manual autônomo barato baseado na tecnologia PrimeSense. Comecei a estar mais interessado depois que a Microsoft publicou em como reconstruir um cenário em tempo real conhecido como KinectFusion. A inovação “Drill of Depth” do pessoal de Bratt Granhm e David Cox do Instituto Rowland de Harvard, em que acoplaram à Kinect um berbequim utilizando a sua bateria para a alimentação e de um monitor, isto por volta de 2011, o que mantem o interesse nas possibilidades da Kinect.
Apareceu um Post no blogue da PrimeSense depois que a Microsoft decidiu abandonar a tecnologia PrimeSense e desenvolver seus próprios dispositivos de detecção de profundidade para o uso da nova Xbox Uno. PrimeSense teve a transição de um relacionamento lucrativo com um grande cliente para um desenvolvedor de soluções de hardware e firmware que procuram mercados mais amplos. A iniciativa OpenNI que é um projeto open source para desenvolver mediadores SDK para os sensores 3D que foi patrocinado principalmente pela PrimeSense, foi uma tentativa de ampliar o potencial do programadores que acabaria por construir soluções em tecnologias PrimeSense.
Há muitas driveres da PrimeSense em muitos dos scanners 3D no mercado hoje será interessante ver se este universo se expande ou contrai após a aquisição da Apple como por exemplo, vai ser a direção para dentro, focando a tecnologia PrimeSense para ser entregue diretamente apenas com dispositivos da Apple ou eles vão continuar a namorar os programadores em todos os tipos de soluções de hardware e software. O novo PrimeSense Capri já permite inteiramente novos paradigmas de implantação para esta tecnologia, com mais uma geração o sensor vai ter encolhido tanto que eles podem ser confortavelmente incorporados diretamente no telefone e tablets mas com um trade-off em termos de qualidade de dados, se o sensor encolhe muito. Quem está usar a tecnologia PrimeSense? Mais abaixo uma pequena lista não muito exaustiva da PrimeSense 3D que fornece a digitalizadores 3D, mas note que este não é um perfil do universo das empresas de software que oferecem soluções em torno do modelo 3D e reconstruções de cenários como há muitos.
A que com que tenho realizado testes a Kinect da Microsoft, ao início para a utilização da tecnologia PrimeSense como um dispositivo de reconstrução do cenário 3D veio de inovações independentes para a original Kinect Microsoft, assim finalmente, a Microsoft decidiu abraçar essas inovações desenvolver um SDK autônomo. E assim passaram a vender uma kinect que faria interface direta com dispositivos Windows que também permitiu que um modo de próximo para a câmara profundidade
Asus Xtion Pro esta é uma Asus OEM da tecnologia PrimeSense, que fornece essencialmente as mesmas especificações funcionais, entregues no Microsoft Kinect mas têm o mesmo chipset PrimeSense e o seu desenho de referência.
Matterport a camara para o mapeamento interior que surgiu a partir dos meados de 2012 para desenvolver um sistema para a camara e o software e a infraestrutura em nuvem para a digitalização de espaços interiores. O próprio sistema da câmara é construído em torno de tecnologias PrimeSense juntamente com câmaras 2D para capturar imagens de alta qualidade a ser referenciado para a reconstrução 3D criado a partir das câmaras PrimeSense, sendo que conta com grandes investidores tendo à poucos dias sido mencionada num artigo da Forbes que vale a pena a leitura.
Floored que se concentra principalmente no desenvolvimento de software para ajudar a visualizar os espaços interiores e está se concentrando em primeiro lugar na indústria de imóveis comerciais. Floored conseguio pelo menos um pouco mais de um milhão agora, incluindo os investidores comuns com Matterport. Para saber mais sobre a relação entre Matterport e Floored, consulte este artigo TechCrunch. CEO do Floored é Dave Eisenberg, e ele deu uma grande apresentação no TechCrunch NYC no Battlefield Startup no final de abril 2013 explicando proposta de valor da Floored, que está definitivamente cheio de mentes brilhantes obviamente, um monte de gente de visão computacional que entendem o quão difícil é tentar gerar automaticamente modelos 3D de espaços interiores a partir de dados de varrimento de qualquer qualidade, para ter uma noção do que eles estão pensando pode se ver no seu blogue.
A Lynx A é uma start-up em Austin, Texas conhecido como Lynx Labs que lançou uma campanha Kickstarter início de 2013 para apontar e disparar a câmara 3D, sendo que este dispositivo é um sensor, combinada com um dispositivo de computação e de software que permita a aquisição em tempo real e o processamento de cenário em 3D, sendo que a primeira remessas de dipositivos foi em Setembro de 2013 sendo a suposição que este dispositivo é fornecido pela PrimeSense.
A DotProduct com o seu digitalizador 3D DPI-7, como acontece com o Lynx a câmera, é seguro assumir que este é um dispositivo movido a PrimeSense, combinado com um Google Nexus, e o software necessário para fazer a reconstrução da cena.
Occipital Structure Sensor - occipital é uma empresa extremamente interessante com sede em Boulder e San Francisco, cheio de incrível experiência de visão por computador. Depois de cortar os dentes em algumas aplicações de visão computacional para gerar panoramas sobre os dispositivos da Apple, têm superado com um conjunto de hardware e software para a aquisição de dados em 3D e criação de modelos 3D. Occipital conta com um grupo económico e com investimentos com sete milhões desde de 2011, tendo a sua campanha de kickstarter com o sensor adquirido mais de um milhão de dólares. Sendo o digitalizador 3D um dispositivo movido a PrimeSense, que é oficialmente é suportado em dispositivos Apple iPad de ultima geração. O que é interessante é a abordagem do occipital para criar todo um ecossistema de programadores em torno desse dispositivo na altura que adquiriam a tecnologia Skanect em Julho de 2013. A Skanect foi um dos melhores aplicativos de terceiros disponíveis que haviam implementado e disponibilizado a tecnologia de Fusion Microsoft permitindo o tempo de reconstrução do cenário real 3D a partir de câmaras de profundidade.
Sense Scanner 3D, da 3D Systems é o mais novo participante nos digitalizadores 3D anunciado há algumas semanas pela 3D Systems, que adquiriu a antiga empresa Geomagic. O Sense usa o novo sensor Carmine PrimeSense uma evolução da tecnologia PrimeSense da câmara de profundidade, permitindo uma maior precisão de profundidade através de melhor resolução dos pixels na área e em última análise, a qualidade de reconstrução. Na minha opinião, o concorrente mais próximo no mercado hoje, a PrimeSense tecnologias são feitas por uma empresa chamada Softkinetic na sua linha de câmaras DepthSense e sensores, e softwares mediadores, no local as especificações funcionais destes dispositivos se comportam de forma diferente aos sensores de referência PrimeSense. Ao contrário PrimeSense a SoftKinectic vende câmaras completas assim como módulos e software associado, a SoftKinectic utiliza uma abordagem de tempo de voo (TOF) para capturar dados de profundidade o que é diferente do que PrimeSence.
Existem outras empresas no espaço de imagem industrial que atualmente desenvolvem as câmaras de visão ou outros digitalizadores de tempo de vôo que poderia fornecer dispositivos de consumo como por exemplo a PMD Technologies na Alemanha.
Previsões para 2014, no início de 2013 quando comecei a tomar brincar com a Kinect da Windows, disse para mim mesmo que conseguiria digitalizar um cenário e modifica-lo. E isso deve-se ao baixo custo do equipamento de aquisição de dados 3D. Tendo a consciência que através de digitalizador 3D consegue-se digitalizar gasodutos e os seus componentes 3D, e sendo mais usuais que a adoção das impressoras 3D.
Sensores como o da Kinect da Microsoft outros o dispositivos táteis irão desbloquear novos paradigmas de interação com a realidade uma vez digitalizados. Apesar da inovação, as preocupações de propriedade intelectual serão abundantes, como estamos no alvorecer da era o próximo '”Napster” de conteúdos 3D, acho que muita da que a previsão veio e está se tornar realidade.
Para 2014 acredito que se poderá ver as seguintes tendências um nível macro do Universo de aquisição de dados 3D:
- Aceleração contínua nos modelos 3D e a sua reconstrução de cenários utilizando sensores de profundidade e camaras tempo de voo, mas com uma expansão nas camaras de campo da luz ou seja.
- Veremos muitas empresas que haviam sido o foco principalmente na aquisição de dados a servirem-se disso com pivô para alavancar outros produtos verticalmente, assim que os equipamentos de captura 3D se tornem cada vez mais onipresente.
- Contração contínua de jogadores na captura, modificação do construção de cenários para fazer um ecossistema, com jogadores estabelecidos na impressão 3D comercial e no mercado da digitalização que se deslocam para o espaço do consumidor como por exemplo, a aquisição da Makerbot pela Stratasys, recebendo tanto um digitalizador 3D e um enorme ecossistema consumidor Thingiverser e com ambas as extremidades do mercado em colapso para oferecer soluções mais completas de captura e impressão como por exemplo, empresas de impressão 3D adquirindo hardware de digitalizadores 3D e empresas de software, vice-versa, etc..
- Redobrado esforço na comunidade originária bibliotecas de reconstrução 3D e software de aplicação como por exemplo Point Cloud Libraries e MeshLab, com talvez uma tentativa de comercializar estas ofertas.
- A partir de 2014, mas realmente acelerando nos anos que se seguem, sensores 3D em todos os locais telemóveis, óculos de realidade virtual aumentada, nos carros, que estarão constantemente a capturar, registrar e relatar dados de profundidade, o início de uma multidão proveniente modelo de mundo 3D.
Acredito que só haverá continuidade na aceleração na reconstrução de cenários 3D sejam a uma escala pequena ou grande utilizando camaras de detecção de profundidade, assim como o tempo relativamente barata das camaras de voo, mas também com cenas em 3D e modelos sendo gerados a partir de camaras de campos de luz.
Enquanto o uso de camaras de campos de luz para criar reconstruções em 3D estão apenas em sua infância, assim como a tecnologia PrimeSense que foi projetado para ser usada como um paradigma de interação, e não para a captação de dados de profundidade, sendo assim que consiga ver o que vira nesta área. Pelo que as camaras de luz estruturadas têm uma forte vantagem de serem uma abordagem passiva para aquisição de dados 3D como a fotogrametria.
Pois o que é possível na criação de mapas de profundidade a partir desses tipos de sistemas de câmara, veja este vídeo de marketing da Pelican Imagem pode-se observar os sistemas de impressora 3D Cube 3D.
A altura que veremos essa mudança de jogo na nossa tecnologia é quando começarmos a encontrar a tecnologia de imagem de profundidade aperfeiçoada e integrada diretamente com a próxima série de smartphones e dispositivos de realidade aumentada como os Google Glass. Nessa altura todos os dispositivos terão incorporado sensores de profundidade 3D, em que toda a gente estará adquirir dados 3D e as potenciais são ilimitadas para aplicações que pode colher e agir de acordo com esses dados uma vez capturados. Que inicie a capturar dados 3D pelo mundo começar! Mas a questão será, que pertencerá essa base de dados 3D, uma vez que esteja criada.
Enviar um comentário