No modo simulação, clique numa tag abaixo.
No modo câmera real, aponte o objeto físico à câmera do notebook.
câmera desligada
clique em "Ligar câmera"
UDP :3333 e envia posição + ângulo ao servidor Python.DATA[id].imageUrl.
Clique para simular · ou use a câmera real com o objeto físico impresso
← selecione uma tag
reacTIVision processa o frame em P&B e extrai id, x,y normalizado e ângulo θ. Transmitidos via UDP :3333 ao servidor Python. Nesta demo: o clique simula esse sinal.
O ângulo θ define a data de consulta. O Applied Knowledge Graph retorna apenas nós com valid_from ≤ data AND valid_to > data — subgrafo determinístico, sem ambiguidade temporal para o LLM.
Stable Diffusion gera a imagem via POST /sdapi/v1/txt2img. Na demo: canvas sintético. Para imagens reais: basta trocar DATA[id].imageUrl por uma URL — o resto é idêntico.
Em DATA[id], adicione imageUrl: "https://...".
A função showMedia() detecta automaticamente e usa <img> em vez do canvas.
Pode ser S3, CDN, ou resposta base64 do Stable Diffusion.
Adicione videoUrl: "https://..." em DATA[id].
A função usa <video autoplay loop muted> no painel.
Funciona com .mp4, .webm ou HLS stream.