Uma nova patente da Apple revela que seu trabalho em monitores lenticulares agora se estende a um possível futuro display HMD
LarLar > blog > Uma nova patente da Apple revela que seu trabalho em monitores lenticulares agora se estende a um possível futuro display HMD

Uma nova patente da Apple revela que seu trabalho em monitores lenticulares agora se estende a um possível futuro display HMD

Jun 12, 2023

Em setembro de 2021, a Patently Apple publicou um relatório intitulado "Apple inventa o que poderia ser um display lenticular revolucionário de próxima geração para Macs, HMDs e iDevices."

Em novembro de 2021, a Patently Apple postou um segundo relatório sobre um possível futuro display Lenticular no contexto de um display real da Apple TV sendo capaz de apresentar conteúdo em estilo 3D sem óculos 3D. Só no papel, achei um pouco difícil entender o conceito, então adicionei um vídeo que poderia fazer qualquer um entender o que a Apple estava tentando alcançar. O vídeo abaixo refere-se a uma tela lenticular que a Sony descreve como uma “Exibição de Realidade Espacial”. A Apple agora tem Spatial Audio e, portanto, chamar sua tecnologia de Spatial Display não seria exagero. Seja como for, é um salto emocionante para os displays.

Hoje, a Patently Apple descobriu um pedido de patente da Apple no banco de dados da Organização Mundial de Propriedade Intelectual intitulado “Geração de Imagem Lenticular”. A patente, publicada em 03 de maio de 2023, refere-se a métodos e aparelhos para geração de imagens a serem exibidas em displays lenticulares. Em vez de uma televisão ser o foco desta patente desta vez, o termo HMD é listado cerca de 30 vezes. Embora não esteja limitado a um HMD, é um grande foco desta patente.

Nestes métodos, uma malha fixa é gerada offline e, em tempo real, as informações de textura são mapeadas para a malha fixa. Em um processo off-line, as informações de textura e malha 3D de um objeto são usadas para renderizar visualizações de mapas UV para vários pontos de vista do objeto, mapas de visualização são gerados a partir de dados de calibração de exibição e um mapa lenticular para UV é gerado a partir das visualizações de mapas UV e visualizar mapas.

Em tempo real, as informações de textura são capturadas e é executado um processo composto que gera uma imagem lenticular para vários pontos de vista, amostrando pixels da textura com base no mapa lenticular para UV.

A imagem lenticular é então exibida no display lenticular. As posições detectadas de pessoas no ambiente podem ser usadas para limitar o número de pontos de vista gerados durante o processo de composição em tempo real.

A patente da Apple FIGS. 1A e IB abaixo ilustram um exemplo de exibição lenticular #120. FIGO. 1A mostra uma vista frontal 3D de um exemplo de exibição lenticular e a FIG. IB mostra um exemplo de vista superior do exemplo de exibição lenticular.

Como mostrado na FIG. 1A, um display lenticular pode incluir um painel de display #122 que pode ser um LCD, OLED, DLP ou LCoS (cristal líquido em silício). Como mostrado nas FIGS. 1 A e IB, a lente lenticular #126 pode ser uma folha ou conjunto de lentes de ampliação (também referidas como lentículas) #128 configuradas de modo que, quando a exibição lenticular é vista de ângulos ligeiramente diferentes, diferentes visualizações de uma imagem lenticular sendo exibidos no painel da tela são visíveis de diferentes pontos de vista ou ângulos de visão (por exemplo, VI, V2 e V3) na frente da tela.

Além disso, o raio de visão pode, por exemplo, ser de 30 graus; no entanto, podem ser utilizados ângulos de visão mais largos ou mais estreitos, por exemplo, dentro de uma gama de 15 a 65 graus. Como exemplo não limitativo, uma exibição lenticular 120 pode fornecer 22 ângulos de visão espalhados por um raio de visão de 30 graus, com uma visão diferente a cada 1,6 graus.

Patente da Apple FIG. 1C acima mostra uma vista superior de um dispositivo exemplar #100 que inclui um display lenticular #120 conforme ilustrado nas FIGS. 1 A e IB, de acordo com algumas modalidades. O dispositivo pode incluir um display lenticular, um ou mais sensores #140 e um controlador #160. Os sensores podem coletar informações sobre um objeto #190 para serem imagens na exibição lenticular.

Os sensores #140 podem incluir, mas não estão limitados a, uma ou mais câmeras que capturam informações de profundidade para o objeto #190. O controlador pode incluir um ou mais processadores que processam dados capturados pelos sensores para gerar informações de textura (por exemplo, coloração e sombreamento) e malha (por exemplo, uma representação 3D) para o objeto. A partir das informações de textura e malha, o controlador pode gerar imagens lenticulares para serem exibidas no display lenticular.