Introdução
Este artigo trata do uso da biblioteca JSARToolKit (link em inglês) com a API getUserMedia WebRTC (links em inglês) para fazer aplicativos de realidade aumentada na Web. Para a renderização, estou usando o WebGL devido ao maior desempenho que ele oferece. O resultado final deste artigo é um aplicativo de demonstração que coloca um modelo 3D em cima de um marcador de realidade aumentada em um vídeo de webcam.
A JSARToolKit é uma biblioteca de realidade aumentada para JavaScript. É uma biblioteca de código aberto lançada pela GPL e uma porta direta do FLARToolKit do Flash que fiz para a demonstração do Remixing Reality do Mozilla. O próprio FLARToolKit é a porta do NyARToolKit (em inglês) do Java, que é uma porta do ARToolKit (link em inglês) do C. Um longo caminho, mas aqui estamos.
A JSARToolKit opera em elementos de tela. Como a imagem precisa ser lida na tela, ela precisa ter a mesma origem que a página ou usar CORS para contornar a política de mesma origem. Em poucas palavras, defina a propriedade crossOrigin
na imagem ou no elemento de vídeo que você quer usar como textura como ''
ou 'anonymous'
.
Ao passar um canvas para o JSARToolKit para análise, o JSARToolKit retorna uma lista de marcadores de RA encontrados na imagem e as matrizes de transformação correspondentes. Para desenhar um objeto 3D sobre um marcador, transmita a matriz de transformação para qualquer biblioteca de renderização 3D usada. Assim, o objeto será transformado usando a matriz. Em seguida, desenhe o frame do vídeo na sua cena WebGL e desenhe o objeto em cima dele.
Para analisar vídeos usando a JSARToolKit, desenhe o vídeo em um canvas e passe o canvas para o JSARToolKit. Faça isso para cada frame e você terá rastreamento de RA de vídeo. A JSARToolKit é rápida o suficiente em mecanismos JavaScript modernos para fazer isso em tempo real, mesmo em quadros de vídeo de 640 x 480. No entanto, quanto maior o frame do vídeo, mais tempo o processamento leva. Um bom tamanho de quadro de vídeo é 320 x 240, mas se você pretende usar marcadores pequenos ou vários marcadores, 640 x 480 é preferível.
Demonstração
Para visualizar a demonstração da webcam, o WebRTC precisa estar ativado no navegador (no Chrome, acesse about:flags e ative o MediaStream). Você também precisa imprimir o marcador RA abaixo. Você também pode tentar abrir a imagem do marcador no smartphone ou tablet e mostrá-la na webcam.
Como configurar a JSARToolKit
A API JSARToolKit é bem parecida com Java, portanto, será necessário fazer algumas contorções para usá-la. A ideia básica é que você tenha um objeto detector que opere em um objeto de varredura. Entre o detector e a varredura está um objeto de parâmetro da câmera que transforma as coordenadas da varredura em coordenadas da câmera. Para conseguir os marcadores detectados, você itera sobre eles e copia as matrizes de transformação para o código.
A primeira etapa é criar o objeto de varredura, o objeto de parâmetro da câmera e o objeto detector.
// Create a RGB raster object for the 2D canvas.
// JSARToolKit uses raster objects to read image data.
// Note that you need to set canvas.changed = true on every frame.
var raster = new NyARRgbRaster_Canvas2D(canvas);
// FLARParam is the thing used by FLARToolKit to set camera parameters.
// Here we create a FLARParam for images with 320x240 pixel dimensions.
var param = new FLARParam(320, 240);
// The FLARMultiIdMarkerDetector is the actual detection engine for marker detection.
// It detects multiple ID markers. ID markers are special markers that encode a number.
var detector = new FLARMultiIdMarkerDetector(param, 120);
// For tracking video set continue mode to true. In continue mode, the detector
// tracks markers across multiple frames.
detector.setContinueMode(true);
// Copy the camera perspective matrix from the FLARParam to the WebGL library camera matrix.
// The second and third parameters determine the zNear and zFar planes for the perspective matrix.
param.copyCameraMatrix(display.camera.perspectiveMatrix, 10, 10000);
Como usar getUserMedia para acessar a webcam
Em seguida, vou criar um elemento de vídeo que recebe vídeo da webcam pelas APIs WebRTC. Para vídeos pré-gravados, basta definir o atributo de origem do vídeo para o URL do vídeo. Se você detectar marcadores de imagens estáticas, será possível usar um elemento de imagem de forma semelhante.
Como WebRTC e getUserMedia ainda são novas tecnologias emergentes, você precisa detectá-las com recursos. Para mais detalhes, confira o artigo de Eric Bidelman sobre Como capturar áudio e vídeo em HTML5 (em inglês).
var video = document.createElement('video');
video.width = 320;
video.height = 240;
var getUserMedia = function(t, onsuccess, onerror) {
if (navigator.getUserMedia) {
return navigator.getUserMedia(t, onsuccess, onerror);
} else if (navigator.webkitGetUserMedia) {
return navigator.webkitGetUserMedia(t, onsuccess, onerror);
} else if (navigator.mozGetUserMedia) {
return navigator.mozGetUserMedia(t, onsuccess, onerror);
} else if (navigator.msGetUserMedia) {
return navigator.msGetUserMedia(t, onsuccess, onerror);
} else {
onerror(new Error("No getUserMedia implementation found."));
}
};
var URL = window.URL || window.webkitURL;
var createObjectURL = URL.createObjectURL || webkitURL.createObjectURL;
if (!createObjectURL) {
throw new Error("URL.createObjectURL not found.");
}
getUserMedia({'video': true},
function(stream) {
var url = createObjectURL(stream);
video.src = url;
},
function(error) {
alert("Couldn't access webcam.");
}
);
Detectar marcadores
Quando o detector estiver funcionando corretamente, poderemos começar a enviar imagens para detectar matrizes de RA. Primeiro, desenhe a imagem na tela do objeto de varredura e, em seguida, execute o detector no objeto de varredura. O detector retorna o número de marcadores encontrados na imagem.
// Draw the video frame to the raster canvas, scaled to 320x240.
canvas.getContext('2d').drawImage(video, 0, 0, 320, 240);
// Tell the raster object that the underlying canvas has changed.
canvas.changed = true;
// Do marker detection by using the detector object on the raster object.
// The threshold parameter determines the threshold value
// for turning the video frame into a 1-bit black-and-white image.
//
var markerCount = detector.detectMarkerLite(raster, threshold);
A última etapa é iterar os marcadores detectados e obter as matrizes de transformação. Use as matrizes de transformação para colocar objetos 3D sobre os marcadores.
// Create a NyARTransMatResult object for getting the marker translation matrices.
var resultMat = new NyARTransMatResult();
var markers = {};
// Go through the detected markers and get their IDs and transformation matrices.
for (var idx = 0; idx < markerCount; idx++) {
// Get the ID marker data for the current marker.
// ID markers are special kind of markers that encode a number.
// The bytes for the number are in the ID marker data.
var id = detector.getIdMarkerData(idx);
// Read bytes from the id packet.
var currId = -1;
// This code handles only 32-bit numbers or shorter.
if (id.packetLength <= 4) {
currId = 0;
for (var i = 0; i < id.packetLength; i++) {
currId = (currId << 8) | id.getPacketData(i);
}
}
// If this is a new id, let's start tracking it.
if (markers[currId] == null) {
markers[currId] = {};
}
// Get the transformation matrix for the detected marker.
detector.getTransformMatrix(idx, resultMat);
// Copy the result matrix into our marker tracker object.
markers[currId].transform = Object.asCopy(resultMat);
}
Mapeamento de matriz
Este é o código para copiar as matrizes do JSARToolKit sobre as matrizes do glMatrix (que são FloatArrays de 16 elementos, com a coluna de translação nos últimos quatro elementos). Funciona como por mágica (leia-se: não sei como as matrizes do ARToolKit são configuradas. Meu palpite é eixo Y invertido.) De qualquer forma, esse vodu de inversão de sinal faz uma matriz JSARToolKit funcionar da mesma forma que uma glMatrix.
Para usar a biblioteca com outra biblioteca, como a Three.js, é preciso escrever uma função que converta as matrizes do ARToolKit para o formato da matriz da biblioteca. Você também precisa focar no método FLARParam.copyCameraMatrix. O método copyCameraMatrix escreve a matriz de perspectiva FLARParam em uma matriz no estilo glMatrix.
function copyMarkerMatrix(arMat, glMat) {
glMat[0] = arMat.m00;
glMat[1] = -arMat.m10;
glMat[2] = arMat.m20;
glMat[3] = 0;
glMat[4] = arMat.m01;
glMat[5] = -arMat.m11;
glMat[6] = arMat.m21;
glMat[7] = 0;
glMat[8] = -arMat.m02;
glMat[9] = arMat.m12;
glMat[10] = -arMat.m22;
glMat[11] = 0;
glMat[12] = arMat.m03;
glMat[13] = -arMat.m13;
glMat[14] = arMat.m23;
glMat[15] = 1;
}
Integração com Three.js
Three.js é um mecanismo popular de JavaScript 3D. Vou mostrar como usar a saída do JSARToolKit em Three.js. Você precisa de três coisas: um quadrilátero de tela cheia com a imagem do vídeo desenhada, uma câmera com a matriz de perspectiva FLARParam e um objeto com uma matriz de marcador à medida que ele se transforma. Acompanhe o código abaixo sobre a integração.
// I'm going to use a glMatrix-style matrix as an intermediary.
// So the first step is to create a function to convert a glMatrix matrix into a Three.js Matrix4.
THREE.Matrix4.prototype.setFromArray = function(m) {
return this.set(
m[0], m[4], m[8], m[12],
m[1], m[5], m[9], m[13],
m[2], m[6], m[10], m[14],
m[3], m[7], m[11], m[15]
);
};
// glMatrix matrices are flat arrays.
var tmp = new Float32Array(16);
// Create a camera and a marker root object for your Three.js scene.
var camera = new THREE.Camera();
scene.add(camera);
var markerRoot = new THREE.Object3D();
markerRoot.matrixAutoUpdate = false;
// Add the marker models and suchlike into your marker root object.
var cube = new THREE.Mesh(
new THREE.CubeGeometry(100,100,100),
new THREE.MeshBasicMaterial({color: 0xff00ff})
);
cube.position.z = -50;
markerRoot.add(cube);
// Add the marker root to your scene.
scene.add(markerRoot);
// Next we need to make the Three.js camera use the FLARParam matrix.
param.copyCameraMatrix(tmp, 10, 10000);
camera.projectionMatrix.setFromArray(tmp);
// To display the video, first create a texture from it.
var videoTex = new THREE.Texture(videoCanvas);
// Then create a plane textured with the video.
var plane = new THREE.Mesh(
new THREE.PlaneGeometry(2, 2, 0),
new THREE.MeshBasicMaterial({map: videoTex})
);
// The video plane shouldn't care about the z-buffer.
plane.material.depthTest = false;
plane.material.depthWrite = false;
// Create a camera and a scene for the video plane and
// add the camera and the video plane to the scene.
var videoCam = new THREE.Camera();
var videoScene = new THREE.Scene();
videoScene.add(plane);
videoScene.add(videoCam);
...
// On every frame do the following:
function tick() {
// Draw the video frame to the canvas.
videoCanvas.getContext('2d').drawImage(video, 0, 0);
canvas.getContext('2d').drawImage(videoCanvas, 0, 0, canvas.width, canvas.height);
// Tell JSARToolKit that the canvas has changed.
canvas.changed = true;
// Update the video texture.
videoTex.needsUpdate = true;
// Detect the markers in the video frame.
var markerCount = detector.detectMarkerLite(raster, threshold);
for (var i=0; i<markerCount; i++) {
// Get the marker matrix into the result matrix.
detector.getTransformMatrix(i, resultMat);
// Copy the marker matrix to the tmp matrix.
copyMarkerMatrix(resultMat, tmp);
// Copy the marker matrix over to your marker root object.
markerRoot.matrix.setFromArray(tmp);
}
// Render the scene.
renderer.autoClear = false;
renderer.clear();
renderer.render(videoScene, videoCam);
renderer.render(scene, camera);
}
Resumo
Neste artigo, passamos pelo básico da JSARToolKit. Agora você está pronto para criar seus próprios aplicativos de realidade aumentada usando a webcam com JavaScript.
A integração da JSARToolKit com o Three.js é um pouco complicada, mas com certeza é possível. Não tenho 100% de certeza se estou fazendo certo na minha demonstração, então informe se você conhecer uma maneira melhor de fazer a integração. Patches são bem-vindos :)
Referências
- JSARToolKit (link em inglês)
- Magi (link em inglês)
- Three.js