इमेज और वीडियो के लिए रीयल-टाइम इफ़ेक्ट

मैट स्केल

आज के कई सबसे लोकप्रिय ऐप्लिकेशन में, आपको इमेज या वीडियो पर फ़िल्टर और इफ़ेक्ट लागू करने की सुविधा मिलती है. इस लेख में बताया गया है कि इन सुविधाओं को ओपन वेब पर कैसे लागू किया जाए.

आम तौर पर, वीडियो और इमेज के लिए यह प्रक्रिया एक जैसी है, लेकिन आखिर में हम वीडियो से जुड़ी कुछ ज़रूरी बातों पर बात करेंगे. पूरे लेख में, यह माना जा सकता है कि 'इमेज' का मतलब 'इमेज या वीडियो का एक फ़्रेम' है

किसी इमेज का Pixel डेटा पाने का तरीका

इमेज में बदलाव की तीन बुनियादी कैटगरी हैं जो कि आम हैं:

  • पिक्सल इफ़ेक्ट, जैसे कि कंट्रास्ट, चमक, वॉर्म्थ, सेपिया टोन, सेचुरेशन.
  • मल्टी-पिक्सल इफ़ेक्ट, जिन्हें कॉन्वलूशन फ़िल्टर कहा जाता है. इनमें शार्प करना, किनारे का पता लगाना, और धुंधला करना शामिल है.
  • पूरी इमेज डिस्टॉर्शन, जैसे कि काटना, तिरछा करना, स्ट्रेचिंग, लेंस इफ़ेक्ट, रिपल.

इन सभी तरीकों में, सोर्स इमेज के असल पिक्सल डेटा को इकट्ठा करके उससे एक नई इमेज बनानी होती है. ऐसा करने के लिए, सिर्फ़ एक कैनवस इंटरफ़ेस है.

फिर, वाकई में सबसे अहम विकल्प यह है कि प्रोसेसिंग को सीपीयू पर, 2D कैनवस पर या जीपीयू पर, WebGL के साथ किया जाए.

आइए, दोनों तरीकों के बीच के अंतर पर फटाफट नज़र डालते हैं.

2D कैनवस

निश्चित तौर पर यह, इन दोनों विकल्पों में से सबसे आसान है. सबसे पहले, आपको कैनवस पर इमेज बनानी होगी.

const source = document.getElementById('source-image');

// Create the canvas and get a context
const canvas = document.createElement('canvas');
const context = canvas.getContext('2d');

// Set the canvas to be the same size as the original image
canvas.width = source.naturalWidth;
canvas.height = source.naturalHeight;

// Draw the image onto the top-left corner of the canvas
context.drawImage(theOriginalImage, 0, 0);

इससे आपको पूरे कैनवस के लिए पिक्सल वैल्यू का कलेक्शन मिलता है.

const imageData = context.getImageData(0, 0, canvas.width, canvas.height);
const pixels = imageData.data;

इस समय pixels वैरिएबल एक Uint8ClampedArray है, जिसकी लंबाई width * height * 4 है. हर ऐरे एलिमेंट एक बाइट का होता है और अरे का हर चार एलिमेंट एक पिक्सल का रंग दिखाता है. चार में से हर एक एलिमेंट उसी क्रम में लाल, हरे, नीले, और अल्फ़ा (पारदर्शिता) की मात्रा को दिखाता है. पिक्सल ऊपर के बाएँ कोने से क्रम में लगाए जाते हैं और बाएं से दाएं और ऊपर से नीचे काम करते हुए काम करते हैं.

pixels[0] = red value for pixel 0
pixels[1] = green value for pixel 0
pixels[2] = blue value for pixel 0
pixels[3] = alpha value for pixel 0
pixels[4] = red value for pixel 1
pixels[5] = green value for pixel 1
pixels[6] = blue value for pixel 1
pixels[7] = alpha value for pixel 1
pixels[8] = red value for pixel 2
pixels[9] = green value for pixel 2
pixels[10] = blue value for pixel 2
pixels[11] = alpha value for pixel 2
pixels[12] = red value for pixel 3
...

निर्देशांकों से किसी पिक्सल के इंडेक्स का पता लगाने के लिए, एक आसान फ़ॉर्मूला दिया गया है.

const index = (x + y * imageWidth) * 4;
const red = pixels[index];
const green = pixels[index + 1];
const blue = pixels[index + 2];
const alpha = pixels[index + 3];

अब इस डेटा को जैसे चाहें, पढ़ा और लिखा जा सकता है. इससे आपको अपनी ज़रूरत के मुताबिक कोई भी इफ़ेक्ट लागू करने की सुविधा मिलती है. हालांकि, यह अरे, कैनवस के असल पिक्सल डेटा की कॉपी है. बदला गया वर्शन लिखने के लिए, आपको putImageData तरीके का इस्तेमाल करके इसे कैनवस के सबसे ऊपर बाएं कोने में ले जाना होगा

context.putImageData(imageData, 0, 0);

WebGL

WebGL एक बड़ा विषय है, जो कि किसी एक लेख में न्याय करने के लिए निश्चित रूप से बहुत बड़ा है. अगर आपको WebGL के बारे में ज़्यादा जानना है, तो इस लेख के आखिर में पढ़ने का सुझाव दिया गया है.

हालांकि, यहां इस बारे में कम शब्दों में बताया गया है कि किसी एक इमेज में बदलाव करने के मामले में क्या किया जाना चाहिए.

WebGL के बारे में याद रखने वाली सबसे ज़रूरी चीज़ों में से एक यह है कि यह एक 3D ग्राफ़िक्स API नहीं है. असल में, WebGL (और OpenGL) एक ही चीज़ में अच्छा है - त्रिकोण बनाना. अपने ऐप्लिकेशन में, आपको यह बताना होगा कि आपको असल में क्या त्रिकोण के रूप में बनाना है. 2D इमेज के मामले में यह काफ़ी आसान है. ऐसा इसलिए, क्योंकि एक रेक्टैंगल, समकोण वाले दो त्रिभुजों को मिलाकर बनाया गया है, ताकि उनके कर्ण एक ही जगह पर हों.

बुनियादी प्रक्रिया इस तरह है:

  • उस जीपीयू को डेटा भेजें जो त्रिभुजों के वर्टेक्स (पॉइंट) की जानकारी देता है.
  • अपनी सोर्स इमेज को एक टेक्सचर (इमेज) के तौर पर जीपीयू को भेजें.
  • 'वर्टेक्स शेडर' बनाएं.
  • 'फ़्रैगमेंट शेडर' बनाएं.
  • कुछ शेडर वैरिएबल सेट करें, जिन्हें 'यूनिफ़ॉर्म' कहा जाता है.
  • शेडर चलाएं.

आइए, विस्तार से जानते हैं. ग्राफ़िक कार्ड पर कुछ मेमोरी असाइन करके शुरू करें, जिसे वर्टेक्स बफ़र कहते हैं. आप इसमें डेटा स्टोर करते हैं जो हर त्रिभुज के हर बिंदु के बारे में बताता है. आपके पास कुछ वैरिएबल सेट करने का भी विकल्प होता है, जिन्हें यूनिफ़ॉर्म कहा जाता है. ये वैरिएबल, दोनों शेडर के ज़रिए ग्लोबल वैल्यू होते हैं.

वर्टेक्स शेडर, वर्टेक्स बफ़र के डेटा का इस्तेमाल करके यह कैलकुलेट करता है कि स्क्रीन पर हर त्रिभुज के तीन पॉइंट को कहां बनाना है.

अब जीपीयू को यह जानकारी मिल जाती है कि कैनवस में कौनसे पिक्सल बनाने हैं. फ़्रैगमेंट शेडर को हर पिक्सल में एक बार कॉल किया जाता है और इसे स्क्रीन पर दिखाए जाने वाले रंग को लौटाना होता है. फ़्रैगमेंट शेडर, रंग तय करने के लिए एक या उससे ज़्यादा टेक्सचर से जानकारी पढ़ सकता है.

फ़्रैगमेंट शेडर में किसी टेक्सचर को पढ़ते समय, 0 (बाएं या नीचे) और 1 (दाएं या ऊपर) के बीच के दो फ़्लोटिंग-पॉइंट निर्देशांक का इस्तेमाल करके, यह तय किया जाता है कि आपको इमेज के किस हिस्से को पढ़ना है.

अगर आपको पिक्सल निर्देशांक के आधार पर टेक्सचर को पढ़ना है, तो आपको टेक्स्ट के साइज़ को एक यूनिफ़ॉर्म वेक्टर की तरह पिक्सल में पास करना होगा, ताकि आप हर पिक्सल के लिए कन्वर्ज़न कर सकें.

varying vec2 pixelCoords;

uniform vec2 textureSize;
uniform sampler2D textureSampler;

main() {
  vec2 textureCoords = pixelCoords / textureSize;
  vec4 textureColor = texture2D(textureSampler, textureCoords);
  gl_FragColor = textureColor;
 }
Pretty much every kind of 2D image manipulation that you might want to do can be done in the
fragment shader, and all of the other WebGL parts can be abstracted away. You can see [the
abstraction layer](https://github.com/GoogleChromeLabs/snapshot/blob/master/src/filters/image-shader.ts) (in
TypeScript) that is being in used in one of our sample applications if you'd like to see an example.

### Which should I use?

For pretty much any professional quality image manipulation, you should use WebGL. There is no
getting away from the fact that this kind of work is the whole reason GPUs were invented. You can
process images an order of magnitude faster on the GPU, which is essential for any real-time
effects.

The way that graphics cards work means that every pixel can be calculated in it's own thread. Even
if you parallelize your code CPU-based code with `Worker`s, your GPU may have 100s of times as many
specialized cores as your CPU has general cores.

2D canvas is much simpler, so is great for prototyping and may be fine for one-off transformations.
However, there are plenty of abstractions around for WebGL that mean you can get the performance
boost without needing to learn the details.

Examples in this article are mostly for 2D canvas to make explanations easier, but the principles
should translate pretty easily to fragment shader code.

## Effect types

### Pixel effects

This is the simplest category to both understand and implement. All of these transformations take
the color value of a single pixel and pass it into a function that returns another color value.

There are many variations on these operations that are more or less complicated. Some will take into
account how the human brain processes visual information based on decades of research, and some will
be dead simple ideas that give an effect that's mostly reasonable.

For example, a brightness control can be implemented by simply taking the red, green and blue values
of the pixel and multiplying them by a brightness value. A brightness of 0 will make the image
entirely black. A value of 1 will leave the image unchanged. A value greater than 1 will make it
brighter.

For 2D canvas:

```js
const brightness = 1.1; // Make the image 10% brighter
for (let i = 0; i < imageData.data.length; i += 4) {
  imageData.data[i] = imageData.data[i] * brightness;
  imageData.data[i + 1] = imageData.data[i + 1] * brightness;
  imageData.data[i + 2] = imageData.data[i + 2] * brightness;
}

ध्यान दें कि लूप एक समय में 4 बाइट चलता है, लेकिन सिर्फ़ तीन वैल्यू में बदलाव होता है - ऐसा इसलिए है, क्योंकि इस ट्रांसफ़ॉर्मेशन से ऐल्फ़ा वैल्यू में कोई बदलाव नहीं होता. यह भी याद रखें कि Uint8ClampedArray सभी वैल्यू को पूर्णांकों में बदल देगा और क्लैंप वैल्यू 0 से 255 के बीच होगी.

WebGL फ़्रैगमेंट शेडर:

    float brightness = 1.1;
    gl_FragColor = textureColor;
    gl_FragColor.rgb *= brightness;

इसी तरह, इस ट्रांसफ़ॉर्मेशन के लिए आउटपुट कलर के सिर्फ़ आरजीबी हिस्से को ही गुणा किया जाता है.

इनमें से कुछ फ़िल्टर ज़्यादा जानकारी लेते हैं, जैसे कि पूरी इमेज की औसत चमक . हालांकि, इन फ़िल्टर का इस्तेमाल पूरी इमेज के लिए एक ही बार किया जा सकता है.

उदाहरण के लिए, कंट्रास्ट बदलने का एक तरीका यह है कि हर पिक्सल को कम या ज़्यादा कंट्रास्ट के लिए कुछ 'स्लेटी' वैल्यू के पास या उससे दूर ले जाया जाए. आम तौर पर, स्लेटी रंग की वैल्यू को स्लेटी रंग के लिए चुना जाता है. इसकी चमक, इमेज में मौजूद सभी पिक्सल की मीडियन चमक होती है.

इमेज लोड होने के बाद, इस वैल्यू को एक बार कैलकुलेट किया जा सकता है. इसके बाद, हर बार इमेज इफ़ेक्ट को अडजस्ट करते समय इस वैल्यू का इस्तेमाल किया जा सकता है.

मल्टी-पिक्सल

कुछ इफ़ेक्ट में, मौजूदा पिक्सल का रंग तय करते समय पास के पिक्सल के रंग का इस्तेमाल किया जाता है.

इससे 2D कैनवस केस में चीज़ों को करने का तरीका थोड़ा बदल जाता है, क्योंकि आपको इमेज के ओरिजनल रंगों को पढ़ना है और पिछले उदाहरण में पिक्सल को अपडेट करना था.

हालांकि, यह काफ़ी आसान है. शुरुआत में अपना इमेज डेटा ऑब्जेक्ट बनाते समय, उस डेटा की कॉपी बनाई जा सकती है.

const originalPixels = new Uint8Array(imageData.data);

WebGL केस के लिए आपको कोई बदलाव करने की ज़रूरत नहीं है, क्योंकि शेडर इनपुट टेक्स्चर को नहीं लिखता है.

मल्टी-पिक्सल इफ़ेक्ट की सबसे सामान्य कैटगरी को कंवोल्यूशन फ़िल्टर कहा जाता है. कॉन्वलूशन फ़िल्टर, इनपुट इमेज के कई पिक्सल का इस्तेमाल करता है, ताकि इनपुट इमेज में हर पिक्सल के रंग का हिसाब लगाया जा सके. आउटपुट पर, हर इनपुट पिक्सल के असर के लेवल को वेट कहा जाता है.

इन मोटाई को एक मैट्रिक्स के ज़रिए दिखाया जा सकता है, जिसे कर्नेल कहते हैं और जिसका सेंट्रल मान मौजूदा पिक्सल के हिसाब से होता है. उदाहरण के लिए, यह 3x3 के गाउज़ियन ब्लर के लिए कर्नेल है.

    | 0  1  0 |
    | 1  4  1 |
    | 0  1  0 |

मान लें कि आपको (23, 19) पर पिक्सल के आउटपुट कलर की गणना करना है. आस-पास के 8 पिक्सल (23, 19) और पिक्सल को लें और हर एक के रंग की वैल्यू को उसके वज़न से गुणा करें.

    (22, 18) x 0    (23, 18) x 1    (24, 18) x 0
    (22, 19) x 1    (23, 19) x 4    (24, 19) x 1
    (22, 20) x 0    (23, 20) x 1    (24, 20) x 0

सभी को एक साथ जोड़ दें, फिर नतीजे में 8 से भाग दें, जो दोनों के भार का योग है. आपको यह भी दिखेगा कि नतीजे में ऐसा पिक्सल कैसे मिलेगा जो ज़्यादातर ओरिजनल ही होगा, लेकिन आस-पास के पिक्सल से खून बह रहा होगा.

const kernel = [
  [0, 1, 0],
  [1, 4, 1],
  [0, 1, 0],
];

for (let y = 0; y < imageHeight; y++) {
  for (let x = 0; x < imageWidth; x++) {
    let redTotal = 0;
    let greenTotal = 0;
    let blueTotal = 0;
    let weightTotal = 0;
    for (let i = -1; i <= 1; i++) {
      for (let j = -1; j <= 1; j++) {
        // Filter out pixels that are off the edge of the image
        if (
          x + i > 0 &&
          x + i < imageWidth &&
          y + j > 0 &&
          y + j < imageHeight
        ) {
          const index = (x + i + (y + j) * imageWidth) * 4;
          const weight = kernel[i + 1][j + 1];
          redTotal += weight * originalPixels[index];
          greenTotal += weight * originalPixels[index + 1];
          blueTotal += weight * originalPixels[index + 2];
          weightTotal += weight;
        }
      }
    }

    const outputIndex = (x + y * imageWidth) * 4;
    imageData.data[outputIndex] = redTotal / weightTotal;
    imageData.data[outputIndex + 1] = greenTotal / weightTotal;
    imageData.data[outputIndex + 2] = blueTotal / weightTotal;
  }
}

इससे बुनियादी जानकारी मिलती है, लेकिन यहां गाइड उपलब्ध हैं, जिनसे ज़्यादा जानकारी मिलेगी. साथ ही, कुछ दूसरे काम के तरीकों की सूची भी बनाई जाएगी.

पूरी इमेज

पूरी इमेज को बदलना आसान है. 2D कैनवस में, सोर्स इमेज के हिस्से को कैनवस पर काटना और स्केल करना आसान होता है.

// Set the canvas to be a little smaller than the original image
canvas.width = source.naturalWidth - 100;
canvas.height = source.naturalHeight - 100;

// Draw only part of the image onto the canvas
const sx = 50; // The left-most part of the source image to copy
const sy = 50; // The top-most part of the source image to copy
const sw = source.naturalWidth - 100; // How wide the rectangle to copy is
const sh = source.naturalHeight - 100; // How tall the rectangle to copy is

const dx = 0; // The left-most part of the canvas to draw over
const dy = 0; // The top-most part of the canvas to draw over
const dw = canvas.width; // How wide the rectangle to draw over is
const dh = canvas.height; // How tall the rectangle to draw over is

context.drawImage(theOriginalImage, sx, sy, sw, sh, dx, dy, dw, dh);

रोटेशन और रिफ़्लेक्शन की सुविधा सीधे तौर पर 2D में उपलब्ध है. इमेज को कैनवस में ड्रॉ करने से पहले, अलग-अलग ट्रांसफ़ॉर्म को बदलें.

// Move the canvas so that the center of the canvas is on the Y-axis
context.translate(-canvas.width / 2, 0);

// An X scale of -1 reflects the canvas in the Y-axis
context.scale(-1, 1);

// Rotate the canvas by 90°
context.rotate(Math.PI / 2);

हालांकि, ज़्यादा असरदार तरीके से, कई 2D ट्रांसफ़ॉर्मेशन को 2x3 वाले मैट्रिक्स के तौर पर लिखा जा सकता है और setTransform() की मदद से, कैनवस पर लागू किया जा सकता है. इस उदाहरण में, ऐसे आव्यूह का इस्तेमाल किया गया है जो रोटेशन और अनुवाद को जोड़ता है.

const matrix = [
  Math.cos(rot) * x1,
  -Math.sin(rot) * x2,
  tx,
  Math.sin(rot) * y1,
  Math.cos(rot) * y2,
  ty,
];

context.setTransform(
  matrix[0],
  matrix[1],
  matrix[2],
  matrix[3],
  matrix[4],
  matrix[5],
);

लेंस डिस्टॉर्शन या रिपल जैसे ज़्यादा मुश्किल असर में, सोर्स पिक्सल कोऑर्डिनेट को कैलकुलेट करने के लिए, हर डेस्टिनेशन कोऑर्डिनेट में कुछ ऑफ़सेट लागू करना शामिल होता है. उदाहरण के लिए, क्षैतिज तरंग प्रभाव के लिए आप y निर्देशांक के आधार पर कुछ मान से स्रोत पिक्सेल x निर्देशांक को ऑफ़सेट कर सकते हैं.

for (let y = 0; y < canvas.height; y++) {
  const xOffset = 20 * Math.sin((y * Math.PI) / 20);
  for (let x = 0; x < canvas.width; x++) {
    // Clamp the source x between 0 and width
    const sx = Math.min(Math.max(0, x + xOffset), canvas.width);

    const destIndex = (y * canvas.width + x) * 4;
    const sourceIndex = (y * canvas.width + sx) * 4;

    imageData.data[destIndex] = originalPixels.data[sourceIndex];
    imageData.data[destIndex + 1] = originalPixels.data[sourceIndex + 1];
    imageData.data[destIndex + 2] = originalPixels.data[sourceIndex + 2];
  }
}

वीडियो

अगर video एलिमेंट का इस्तेमाल सोर्स इमेज के तौर पर किया जाता है, तो लेख में मौजूद बाकी चीज़ें, वीडियो के लिए पहले से ही काम करती हैं.

कैनवस 2D:

context.drawImage(<strong>video</strong>, 0, 0);

WebGL:

gl.texImage2D(
  gl.TEXTURE_2D,
  0,
  gl.RGBA,
  gl.RGBA,
  gl.UNSIGNED_BYTE,
  <strong>video</strong>,
);

हालांकि, इसमें सिर्फ़ मौजूदा वीडियो फ़्रेम का इस्तेमाल किया जाएगा. इसलिए, अगर आपको चल रहे किसी वीडियो पर इफ़ेक्ट लागू करना है, तो आपको हर फ़्रेम पर drawImage/texImage2D का इस्तेमाल करना होगा. इससे नया वीडियो फ़्रेम लिया जा सकता है और उसे हर ब्राउज़र ऐनिमेशन फ़्रेम पर प्रोसेस किया जा सकता है.

const draw = () => {
  requestAnimationFrame(draw);

  context.drawImage(video, 0, 0);

  // ...image processing goes here
};

वीडियो के साथ काम करते समय, यह खास तौर पर ज़रूरी हो जाता है कि वीडियो की प्रोसेसिंग तेज़ हो. हो सकता है कि किसी इमेज को इस्तेमाल करने पर, उपयोगकर्ता को बटन पर क्लिक करने और इफ़ेक्ट लागू होने के बीच 100 मि॰से॰ की देरी न हो. हालांकि, ऐनिमेशन वाले वीडियो में सिर्फ़ 16 मि॰से॰ की देरी होने से, वीडियो को झटका लग सकता है.

सुझाव/राय दें या शिकायत करें