ਜੇਕਰ ਤੁਸੀਂ Google Photos 'ਤੇ ਕਿਸੇ ਬੱਚੇ ਦੀਆਂ ਨਗਨ ਤਸਵੀਰਾਂ ਸੇਵ ਕੀਤੀਆਂ ਹਨ, ਤਾਂ ਤੁਹਾਡਾ Google ਖਾਤਾ ਬਲੌਕ ਹੋ ਸਕਦਾ ਹੈ। ਅਜਿਹਾ ਅਮਰੀਕਾ ਵਿੱਚ ਦੋ ਵਿਅਕਤੀਆਂ ਨਾਲ ਹੋਇਆ ਹੈ। ਗੂਗਲ (Google) ਨੇ ਉਹਨਾਂ ਦੇ Google ਖਾਤੇ ਨੂੰ ਬਲੌਕ ਕਰ ਦਿੱਤਾ ਹੈ, ਉਹਨਾਂ ਦੇ ਬੱਚਿਆਂ ਦੀਆਂ ਨਿੱਜੀ ਤਸਵੀਰਾਂ ਨੂੰ ਉਹਨਾਂ ਦੁਆਰਾ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ (CSAM) ਵਜੋਂ Google Photos ਵਿੱਚ ਸੁਰੱਖਿਅਤ ਕੀਤਾ ਗਿਆ ਹੈ। ਇੰਨਾ ਹੀ ਨਹੀਂ ਗੂਗਲ (Google) ਨੇ ਇਸ ਬਾਰੇ ਅਮਰੀਕੀ ਪ੍ਰਸ਼ਾਸਨ ਨੂੰ ਵੀ ਜਾਣਕਾਰੀ ਦਿੱਤੀ।
ਨਿਊਯਾਰਕ ਟਾਈਮਜ਼ ਦੀ ਇੱਕ ਰਿਪੋਰਟ ਵਿੱਚ ਕਿਹਾ ਗਿਆ ਹੈ ਕਿ ਅਮਰੀਕਾ ਵਿੱਚ ਸੈਨ ਫਰਾਂਸਿਸਕੋ ਦੇ ਇੱਕ ਵਿਅਕਤੀ ਨੇ ਡਾਕਟਰ ਨੂੰ ਦਿਖਾਉਣ ਲਈ ਆਪਣੇ ਬੱਚੇ ਦੀ ਇੱਕ ਪ੍ਰਾਈਵੇਟ ਫੋਟੋ ਲਈ ਸੀ ਅਤੇ ਤਸਵੀਰ ਨੂੰ ਆਪਣੇ ਗੂਗਲ ਫੋਟੋਜ਼ ਅਕਾਉਂਟ (Google Photos Account) ਵਿੱਚ ਸੇਵ ਕੀਤਾ ਸੀ। ਅਜਿਹਾ ਹੀ ਕੁਝ ਟੈਕਸਾਸ ਦੇ ਰਹਿਣ ਵਾਲੇ ਇੱਕ ਵਿਅਕਤੀ ਨੇ ਕੀਤਾ ਹੈ।
ਹਾਲਾਂਕਿ ਦੋਵਾਂ ਦੇ ਮਾਤਾ-ਪਿਤਾ ਨੂੰ ਪੁਲਸ ਤੋਂ ਕਲੀਨ ਚਿੱਟ ਮਿਲ ਚੁੱਕੀ ਹੈ ਪਰ ਫਿਰ ਵੀ ਗੂਗਲ (Google) ਨੇ ਅਜੇ ਤੱਕ ਉਨ੍ਹਾਂ ਦਾ ਖਾਤਾ ਬਹਾਲ ਨਹੀਂ ਕੀਤਾ ਹੈ। ਇਹ ਦੋਵੇਂ ਘਟਨਾਵਾਂ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ (CSAM) ਨੂੰ ਰੋਕਣ ਲਈ ਗੂਗਲ ਅਤੇ ਹੋਰ ਕੰਪਨੀਆਂ ਦੁਆਰਾ ਅਪਣਾਈਆਂ ਗਈਆਂ ਤਕਨੀਕਾਂ ਤੋਂ ਉਪਭੋਗਤਾਵਾਂ ਦੀ ਗੋਪਨੀਯਤਾ ਲਈ ਖਤਰੇ ਨੂੰ ਰੇਖਾਂਕਿਤ ਕਰਦੀਆਂ ਹਨ। ਇੰਨਾ ਹੀ ਨਹੀਂ, ਇਹ ਵੀ ਸਾਬਤ ਹੋ ਗਿਆ ਹੈ ਕਿ ਉਪਭੋਗਤਾਵਾਂ ਦੀ ਗੋਪਨੀਯਤਾ ਦੀ ਰੱਖਿਆ ਕਰਦੇ ਹੋਏ ਔਨਲਾਈਨ ਪਲੇਟਫਾਰਮਾਂ 'ਤੇ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ ਨੂੰ ਪਛਾਣਨਾ ਅਤੇ ਹਟਾਉਣਾ ਮੁਸ਼ਕਲ ਹੈ।
ਕਿਹੜੀ ਸਮੱਗਰੀ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ ਹੈ?
ਪ੍ਰਤਿਬੰਧਿਤ ਸਮੱਗਰੀ ਦੇ ਵੇਰਵੇ Google ਦੇ ਪਾਲਿਸੀ ਪੰਨੇ 'ਤੇ ਦਿੱਤੇ ਗਏ ਹਨ। ਇਹ ਉਹ ਸਮੱਗਰੀ ਹੈ ਜਿਸ ਦੇ ਨਤੀਜੇ ਵਜੋਂ ਤੁਹਾਡਾ Google ਖਾਤਾ ਬੰਦ ਹੋ ਸਕਦਾ ਹੈ ਜੇਕਰ ਤੁਸੀਂ ਇਸਨੂੰ Google ਪਲੇਟਫਾਰਮ 'ਤੇ ਅੱਪਲੋਡ ਕਰਦੇ ਹੋ। ਗੂਗਲ (Google) ਨੇ ਅਮਰੀਕੀ ਸਰਕਾਰ ਦੁਆਰਾ ਦਿੱਤੀ ਗਈ ਚਾਈਲਡ ਪੋਰਨੋਗ੍ਰਾਫੀ ਦੀ ਪਰਿਭਾਸ਼ਾ ਦਾ ਪਾਲਣ ਕੀਤਾ ਹੈ। Google ਆਪਣੇ ਉਤਪਾਦਾਂ ਦੀ ਵਰਤੋਂ ਬੱਚਿਆਂ ਦੀ ਜ਼ਿੰਦਗੀ ਨੂੰ ਖਤਰੇ ਵਿੱਚ ਪਾਉਣ, ਜਿਨਸੀ ਸਮੱਗਰੀ ਲਈ ਬੱਚਿਆਂ ਨੂੰ ਬਣਾਉਣ, ਸੈਕਸਟੋਰਸ਼ਨ, ਨਾਬਾਲਗਾਂ ਦੇ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਅਤੇ ਬਾਲ ਤਸਕਰੀ ਲਈ ਵਰਤਣ ਦੀ ਇਜਾਜ਼ਤ ਨਹੀਂ ਦਿੰਦਾ ਹੈ।
ਗੂਗਲ (Google) ਨੇ ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ ਕਿਹਾ ਹੈ ਕਿ ਉਪਭੋਗਤਾਵਾਂ ਨੂੰ ਅਜਿਹੀ ਸਮੱਗਰੀ ਨਹੀਂ ਵੰਡਣੀ ਚਾਹੀਦੀ ਜਿਸ ਵਿੱਚ ਨਗਨਤਾ, ਗ੍ਰਾਫਿਕ ਸੈਕਸ ਐਕਟ ਅਤੇ ਅਸ਼ਲੀਲ ਸਮੱਗਰੀ ਸ਼ਾਮਲ ਹੋਵੇ। ਹਾਲਾਂਕਿ, Google ਵਿਦਿਅਕ, ਵਿਗਿਆਨਕ, ਕਲਾਤਮਕ ਅਤੇ ਦਸਤਾਵੇਜ਼ੀ ਉਦੇਸ਼ਾਂ ਲਈ ਨਗਨਤਾ ਦੀ ਆਗਿਆ ਦਿੰਦਾ ਹੈ।
140,868 Google ਖਾਤੇ ਕੀਤੇ ਗਏ ਡਿਸੇਬਲ : ਇੰਡੀਅਨ ਐਕਸਪ੍ਰੈਸ ਦੀ ਇੱਕ ਰਿਪੋਰਟ ਦੇ ਅਨੁਸਾਰ, ਇਹ ਪਹਿਲੀ ਵਾਰ ਨਹੀਂ ਹੈ ਜਦੋਂ ਗੂਗਲ (Google) ਨੇ ਕਿਸੇ ਦੇ ਨਿੱਜੀ ਖਾਤੇ ਵਿੱਚ ਸੇਵ ਫੋਟੋ ਨੂੰ ਆਪਣੇ ਆਪ ਸਕੈਨ ਕੀਤਾ ਹੈ ਅਤੇ ਇਸਨੂੰ 'ਚਾਈਲਡ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ' ਘੋਸ਼ਿਤ ਕੀਤਾ ਹੈ। ਫੋਰਬਸ ਦੀ ਇੱਕ ਰਿਪੋਰਟ ਦੇ ਅਨੁਸਾਰ, 2020 ਵਿੱਚ, ਗੂਗਲ ਨੇ ਕੈਂਸਾਸ ਦੇ ਇੱਕ ਕਲਾਕਾਰ ਦੇ ਆਰਟ ਵਰਕ ਨੂੰ ਬਾਲ ਸੈਕਸ ਸਮੱਗਰੀ ਦੇ ਰੂਪ ਵਿੱਚ ਸਮਝ ਕੇ ਪ੍ਰਸ਼ਾਸਨ ਨੂੰ ਸੂਚਿਤ ਕੀਤਾ ਸੀ। ਕਲਾਕਾਰ ਦੇ ਖਿਲਾਫ ਵਾਰੰਟ ਵੀ ਜਾਰੀ ਕੀਤਾ ਗਿਆ ਸੀ। Google ਕਿਸੇ ਵੀ ਅਜਿਹੀ ਸਮੱਗਰੀ ਬਾਰੇ ਨੈਸ਼ਨਲ ਸੈਂਟਰ ਫਾਰ ਮਿਸਿੰਗ ਐਂਡ ਐਕਸਪਲੋਇਟਿਡ ਚਿਲਡਰਨ (NCMEC) ਨੂੰ ਸੂਚਿਤ ਕਰਦਾ ਹੈ ਜਿਸਦੀ ਪਛਾਣ ਅਮਰੀਕਾ ਵਿੱਚ ਬਾਲ ਸੈਕਸ ਸਮੱਗਰੀ ਵਜੋਂ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਗੂਗਲ (Google) ਨੇ ਆਪਣੀ ਪਾਰਦਰਸ਼ਤਾ ਰਿਪੋਰਟ ਵਿੱਚ ਇਹ ਵੀ ਮੰਨਿਆ ਹੈ ਕਿ ਉਸਨੇ ਜੂਨ ਅਤੇ ਦਸੰਬਰ 2021 ਦੇ ਵਿਚਕਾਰ NCMEC ਨੂੰ 458,178 ਰਿਪੋਰਟਾਂ ਭੇਜੀਆਂ ਅਤੇ 3.2 ਮਿਲੀਅਨ ਤੋਂ ਵੱਧ ਸਮੱਗਰੀ ਦੀ ਰਿਪੋਰਟ ਕੀਤੀ ਜੋ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ ਵਜੋਂ ਚਿੰਨ੍ਹਿਤ ਹੈ। ਇੰਨਾ ਹੀ ਨਹੀਂ, ਗੂਗਲ ਨੇ ਇਸ ਦੌਰਾਨ 140,868 ਗੂਗਲ ਅਕਾਊਂਟਸ ਨੂੰ ਵੀ ਡਿਸੇਬਲ ਕਰ ਦਿੱਤਾ ਹੈ।
ਗੂਗਲ CSAM ਦੀ ਪਛਾਣ ਕਿਵੇਂ ਕਰਦਾ ਹੈ?
ਗੂਗਲ (Google) ਦਾ ਕਹਿਣਾ ਹੈ ਕਿ ਉਹ ਆਪਣੇ ਪਲੇਟਫਾਰਮਾਂ 'ਤੇ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ ਦੀ ਪਛਾਣ ਕਰਨ, ਹਟਾਉਣ ਅਤੇ ਰਿਪੋਰਟ ਕਰਨ ਲਈ ਸਵੈਚਲਿਤ ਖੋਜ ਅਤੇ ਮਨੁੱਖੀ ਸਮੀਖਿਆ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ, ਉਪਭੋਗਤਾਵਾਂ ਅਤੇ ਗੈਰ-ਸਰਕਾਰੀ ਸੰਗਠਨਾਂ ਵਰਗੀਆਂ ਥਰਡ ਪਾਰਟੀ ਦੁਆਰਾ ਪ੍ਰਦਾਨ ਕੀਤੀਆਂ ਗਈਆਂ ਰਿਪੋਰਟਾਂ ਵੀ ਇਸ ਵਿੱਚ ਸ਼ਾਮਲ ਕੀਤੀਆਂ ਜਾਂਦੀਆਂ ਹਨ। ਹਾਲਾਂਕਿ ਮੁੱਖ ਤੌਰ 'ਤੇ Google CSAM ਨੂੰ ਸਕੈਨ ਅਤੇ ਟੈਗ ਕਰਨ ਲਈ ਦੋ ਤਕਨੀਕਾਂ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। ਉਹਨਾਂ ਦੀ ਵਰਤੋਂ ਉਹਨਾਂ ਫੋਟੋਆਂ, ਵੀਡੀਓਜ਼ ਅਤੇ ਫਾਈਲਾਂ ਦੀ ਨਿਗਰਾਨੀ ਕਰਨ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ ਜੋ ਤੁਸੀਂ Google Drive ਅਤੇ Google Photos 'ਤੇ ਅੱਪਲੋਡ ਕਰਦੇ ਹੋ।
ਹੈਸ਼ ਮੈਚਿੰਗ ਤਕਨੀਕ
Google ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ (CSAM) ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਹੈਸ਼ ਮੈਚਿੰਗ ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਕਰਦਾ ਹੈ। YouTube ਦੀ CSAI (ਚਾਈਲਡ ਸੈਕਸੁਅਲ ਅਬਿਊਜ਼ ਇਮੇਜਰੀ) ਮੈਚ ਤਕਨੀਕ ਹੈਸ਼ ਮੈਚਿੰਗ ਵਿੱਚ ਵੀ ਵਰਤੀ ਜਾਂਦੀ ਹੈ। ਗੂਗਲ ਦੇ ਅਨੁਸਾਰ, CSAI ਮੈਚ ਟੈਕਨਾਲੋਜੀ ਬੱਚਿਆਂ ਨਾਲ ਬਦਸਲੂਕੀ ਦੀਆਂ ਵੀਡੀਓਜ਼ ਨੂੰ ਕੈਪਚਰ ਕਰਦੀ ਹੈ। ਇੰਨਾ ਹੀ ਨਹੀਂ, ਜੇਕਰ ਕੋਈ ਵੀਡੀਓ ਪਹਿਲਾਂ ਤੋਂ ਮਾਨਤਾ ਪ੍ਰਾਪਤ ਸਮੱਗਰੀ ਨੂੰ ਸ਼ਾਮਲ ਕਰਕੇ ਯੂਟਿਊਬ 'ਤੇ ਦੁਬਾਰਾ ਅਪਲੋਡ ਕੀਤਾ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਇਹ ਉਸ ਨੂੰ ਵੀ ਫੜ ਲੈਂਦਾ ਹੈ। ਮੁੱਖ ਤੌਰ 'ਤੇ, ਹਰ ਵਾਰ ਜਦੋਂ Google ਕਿਸੇ ਸਮੱਗਰੀ ਨੂੰ CSAM ਵਜੋਂ ਪਛਾਣਦਾ ਹੈ, ਇਹ ਇਸ ਨੂੰ ਹੈਸ਼ ਜਾਂ ਸੰਖਿਆਤਮਕ ਵੈਲਿਊ ਵਜੋਂ ਨਿਰਧਾਰਤ ਕਰਦਾ ਹੈ। ਇਹ ਫਿਰ ਉਸ ਹੈਸ਼ ਨੂੰ ਇਸਦੇ ਡੇਟਾਬੇਸ ਨਾਲ ਮੇਲ ਖਾਂਦਾ ਹੈ। ਸਿਰਫ ਗੂਗਲ ਹੀ ਨਹੀਂ, ਮਾਈਕ੍ਰੋਸਾਫਟ, ਫੇਸਬੁੱਕ ਅਤੇ ਐਪਲ ਵਰਗੀਆਂ ਕੰਪਨੀਆਂ ਵੀ ਇਸ ਤਰ੍ਹਾਂ ਦੀਆਂ ਤਕਨੀਕਾਂ ਦੀ ਵਰਤੋਂ ਕਰ ਰਹੀਆਂ ਹਨ। ਹੈਸ਼ ਮੈਚਿੰਗ ਤਕਨੀਕ ਦਾ ਫਾਇਦਾ ਇਹ ਹੈ ਕਿ ਗੂਗਲ ਨੂੰ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ ਨੂੰ ਸਟੋਰ ਕਰਨ ਦੀ ਲੋੜ ਨਹੀਂ ਹੈ। ਇਹ ਸਿਰਫ ਹੈਸ਼ ਜਾਂ ਇਸ ਨੂੰ ਨਿਰਧਾਰਤ ਵੈਲਿਊ ਨੂੰ ਸਟੋਰ ਕਰਦਾ ਹੈ। ਜੇਕਰ ਉਹੀ ਹੈਸ਼ ਕਿਸੇ ਹੋਰ ਫੋਟੋ ਜਾਂ ਵੀਡੀਓ ਵਿੱਚ ਪਾਇਆ ਜਾਂਦਾ ਹੈ, ਤਾਂ ਹੈਸ਼ ਮੈਚਿੰਗ ਤਕਨੀਕ ਉਸ ਸਮੱਗਰੀ ਨੂੰ CSAM ਵਜੋਂ ਘੋਸ਼ਿਤ ਕਰਦੀ ਹੈ।
ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਤਕਨੀਕ
Google ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ ਦੀ ਪਛਾਣ ਕਰਨ ਲਈ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਵੀ ਕਰ ਰਿਹਾ ਹੈ। ਇਸ ਦੀ ਵਰਤੋਂ 2018 ਤੋਂ ਕੀਤੀ ਜਾ ਰਹੀ ਹੈ। ਗੂਗਲ ਦਾ ਦਾਅਵਾ ਹੈ ਕਿ ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਟੂਲਸ ਨੇ ਬਾਲ ਜਿਨਸੀ ਸ਼ੋਸ਼ਣ ਸਮੱਗਰੀ ਦਾ ਪਤਾ ਲਗਾਇਆ ਹੈ ਜਿਸ ਬਾਰੇ ਪਹਿਲਾਂ ਸੋਚਿਆ ਨਹੀਂ ਗਿਆ ਸੀ। ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਅਤੇ ਡੀਪ ਨਿਊਰਲ ਨੈੱਟਵਰਕਾਂ ਦੀ ਵਰਤੋਂ ਫੋਟੋ ਪ੍ਰੋਸੈਸਿੰਗ ਲਈ ਕੀਤੀ ਜਾਂਦੀ ਹੈ। ਇਸ ਦਾ ਫਾਇਦਾ ਇਹ ਹੈ ਕਿ CSAM ਜੋ ਹੈਸ਼ਟੈਗ ਡੇਟਾਬੇਸ ਦਾ ਹਿੱਸਾ ਨਹੀਂ ਹੈ, ਨੂੰ ਵੀ ਫੜ ਲਿਆ ਜਾਂਦਾ ਹੈ। ਗੂਗਲ ਦੇ ਅਨੁਸਾਰ, ਮਸ਼ੀਨ ਲਰਨਿੰਗ ਦੁਆਰਾ ਫੜੀ ਗਈ ਸ਼ੱਕੀ ਸਮੱਗਰੀ ਦੀ ਵਿਸ਼ੇਸ਼ ਸਮੀਖਿਆ ਟੀਮ ਦੁਆਰਾ ਪੁਸ਼ਟੀ ਕੀਤੀ ਗਈ ਹੈ। Google ਇਸ ਤਕਨਾਲੋਜੀ ਨੂੰ NGO ਅਤੇ ਉਦਯੋਗਿਕ ਭਾਈਵਾਲਾਂ ਲਈ ਮੁਫ਼ਤ ਉਪਲਬਧ ਕਰਵਾਉਂਦਾ ਹੈ।
ਬ੍ਰੇਕਿੰਗ ਖ਼ਬਰਾਂ ਪੰਜਾਬੀ \'ਚ ਸਭ ਤੋਂ ਪਹਿਲਾਂ News18 ਪੰਜਾਬੀ \'ਤੇ। ਤਾਜ਼ਾ ਖਬਰਾਂ, ਲਾਈਵ ਅਪਡੇਟ ਖ਼ਬਰਾਂ, ਪੜ੍ਹੋ ਸਭ ਤੋਂ ਭਰੋਸੇਯੋਗ ਪੰਜਾਬੀ ਖ਼ਬਰਾਂ ਵੈਬਸਾਈਟ News18 ਪੰਜਾਬੀ \'ਤੇ।
Tags: Child, Google, Sexual Abuse