ਜਾਅਲੀ ਅਗਵਾ ਘੁਟਾਲੇ ਵਿੱਚ ਬੱਚੇ ਦੀ ਆਵਾਜ਼ ਨੂੰ ਕਲੋਨ ਕਰਨ ਲਈ ਹੋਈ AI ਦੀ ਵਰਤੋਂ?

ਏਜੰਸੀ

ਖ਼ਬਰਾਂ, ਕੌਮਾਂਤਰੀ

ਜਾਅਲਸਾਜ਼ੀ ਕਰਨ ਵਾਲਿਆਂ ਨੇ ਫ਼ਿਰੌਤੀ ਵਜੋਂ ਕੀਤੀ 1 ਮਿਲੀਅਨ ਡਾਲਰ ਦੀ ਮੰਗ 

AI clones child's voice in fake kidnapping scam (representational)

ਅਗਵਾ ਕਰਨ ਦੇ ਘੁਟਾਲੇ ਆਮ ਹੀ ਹੁੰਦੇ ਜਾ ਰਹੇ ਹਨ, ਇਹ ਇੰਨੇ ਜ਼ਿਆਦਾ ਵੱਧ ਰਹੇ ਹਨ ਕਿ ਨੈਸ਼ਨਲ ਇੰਸਟੀਚਿਊਟ ਆਫ਼ ਹੈਲਥ (NIH) ਅਤੇ FBI ਨੇ ਹਾਲ ਹੀ ਵਿੱਚ ਪਰਿਵਾਰਾਂ ਨੂੰ ਅਜਿਹੀਆਂ ਕਾਲਾਂ ਤੋਂ ਚੌਕਸ ਰਹਿਣ ਦੀ ਚੇਤਾਵਨੀ ਜਾਰੀ ਕੀਤੀ ਹੈ ਅਤੇ ਹੁਣ ਘੁਟਾਲੇ ਕਰਨ ਵਾਲੇ ਨਵੀਂ AI ਤਕਨਾਲੋਜੀ ਦਾ ਫਾਇਦਾ ਚੁੱਕ ਰਹੇ ਹਨ। ਜਾਅਲਸਾਜ਼ੀ ਕਰਨ ਵਾਲੇ ਇਸ AI ਦੀ ਮਦਦ ਲੈ ਰਹੇ ਹਨ ਜੋ ਉਹਨਾਂ ਦੀਆਂ ਕਾਲਾਂ ਨੂੰ ਪਹਿਲਾਂ ਨਾਲੋਂ ਵਧੇਰੇ ਯਕੀਨਨ (ਅਤੇ ਡਰਾਉਣੀਆਂ) ਬਣਾ ਸਕਦੀਆਂ ਹਨ।

ਹਾਲ ਹੀ ਵਿਚ ਇੱਕ ਮਾਮਲਾ ਸਾਹਮਣੇ ਆਇਆ ਹੈ ਜਿਸ ਵਿਚ ਇੱਕ ਅਮਰੀਕੀ ਔਰਤ ਨੇ ਦਾਅਵਾ ਕੀਤਾ ਹੈ ਕਿ ਘੁਟਾਲੇਬਾਜ਼ਾਂ ਨੇ ਜਾਅਲੀ ਅਗਵਾ ਘੁਟਾਲੇ ਵਿੱਚ ਉਸ ਦੀ 15 ਸਾਲ ਦੀ ਧੀ ਦੀ ਆਵਾਜ਼ ਨੂੰ ਕਲੋਨ ਕਰਨ ਲਈ AI ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਸੀ। ਜੈਨੀਫਰ ਡੀਸਟੇਫਾਨੋ ਨੇ ਕਿਹਾ ਕਿ ਉਸ ਨੂੰ ਇੱਕ ਅਣਜਾਣ ਕਾਲ ਆਈ ਜਿਸ ਵਿੱਚ ਉਸ ਨੇ ਆਪਣੀ ਧੀ ਨੂੰ ਮਦਦ ਲਈ ਚੀਕਦਿਆਂ ਸੁਣਿਆ, ਅਤੇ ਬਾਅਦ ਵਿੱਚ ਇੱਕ ਆਦਮੀ ਨੇ ਉਸ ਨੂੰ 1 ਮਿਲੀਅਨ ਡਾਲਰ ਦੀ ਫਿਰੌਤੀ ਦੀ ਮੰਗ ਕੀਤੀ। 

ਉਸ ਨੇ ਦੱਸਿਆ ਕਿ ਮੇਰੀ 15 ਸਾਲ ਦੀ ਧੀ ਦੀ ਅਵਾਜ਼ ਦੀ ਵਰਤੋਂ ਕਰ ਕੇ ਮੈਨੂੰ ਵਿਸ਼ਵਾਸ ਦਿਵਾਇਆ ਕਿ ਉਸਨੂੰ ਬੰਧਕ ਬਣਾਇਆ ਜਾ ਰਿਹਾ ਹੈ, ਅਤੇ ਜੇਕਰ ਉਹ ਫਿਰੌਤੀ ਅਦਾ ਕਰੇਗੀ ਤਾਂ ਹੀ ਉਸ ਨੂੰ ਛੱਡਿਆ ਜਾਵੇਗਾ। ਹਾਲਾਂਕਿ, ਡੀਸਟੇਫਾਨੋ ਨੂੰ ਦੂਜੇ ਸਰੋਤਾਂ ਦੁਆਰਾ ਪਤਾ ਲੱਗਾ ਕਿ ਉਸ ਦੀ ਧੀ ਸੁਰੱਖਿਅਤ ਹੈ।

ਮਾਮਲੇ ਵਿਚ ਬੱਚੀ ਦੀ ਮਾਂ ਅਨੁਸਾਰ,  “ਮੈਂ ਫ਼ੋਨ ਚੁੱਕੇ ਅਤੇ ਮੈਂ ਆਪਣੀ ਧੀ ਦੀ ਆਵਾਜ਼ ਸੁਣੀ ਜੋ ਮੈਨੂੰ 'ਮਾਂ! ਮਾਂ! ਕੇ ਕੇ ਪੁਕਾਰ ਰਹੀ ਸੀ ਅਤੇ ਉਹ ਰੋ ਰਹੀ ਸੀ, ”। "ਮੈਂ ਕਿਹਾ, 'ਕੀ ਹੋਇਆ?' ਅਤੇ ਉਸਨੇ  ਕਿਹਾ, 'ਮੰਮੀ, ਮੈਂ ਗੜਬੜ ਕਰ ਦਿੱਤੀ,' ਅਤੇ ਉਹ ਲਗਾਤਾਰ ਰੋ ਰਹੀ ਸੀ।

ਫਿਰ ਇੱਕ ਆਦਮੀ ਨੇ ਫ਼ੋਨ 'ਤੇ ਆ ਕੇ ਪਰਿਵਾਰ ਤੋਂ $1 ਮਿਲੀਅਨ ਦੀ ਮੰਗ ਕੀਤੀ ਅਤੇ ਕਿਹਾ ਕਿ ਜੇਕਰ ਅਜਿਹਾ ਨਹੀਂ ਹੋਇਆ ਤਾਂ ਉਹ ਉਸ (ਲੜਕੀ) ਦਾ ਫਾਇਦਾ ਚੁੱਕ ਕੇ ਉਸ ਨੂੰ ਮੈਕਸੀਕੋ ਵਿੱਚ ਛੱਡ ਦੇਵੇਗਾ। 

ਖੁਸ਼ਕਿਸਮਤੀ ਨਾਲ ਡੀਸਟੇਫਾਨੋ ਉਸ ਸਮੇਂ ਆਪਣੀ ਦੂਜੀ ਧੀ ਦੇ ਡਾਂਸ ਸਟੂਡੀਓ ਵਿੱਚ ਸੀ, ਅਤੇ ਉਸ ਦੇ ਆਲੇ ਦੁਆਲੇ ਦੀਆਂ ਔਰਤਾਂ ਨੇ ਜਿਵੇਂ ਹੀ ਸੁਣਿਆ ਕਿ ਕੀ ਹੋ ਰਿਹਾ ਹੈ, ਹਰਕਤ ਵਿੱਚ ਆ ਗਈ। ਇੱਕ ਨੇ 911 ਨੂੰ ਕਾਲ ਕੀਤੀ ਅਤੇ ਦੂਜੇ ਨੇ ਜੈਨੀਫ਼ਰ ਦੇ ਪਤੀ ਨੂੰ ਬੁਲਾਇਆ, ਜੋ ਜਲਦੀ ਹੀ ਆਪਣੀ ਧੀ ਨੂੰ ਸੁਰੱਖਿਅਤ ਅਤੇ ਤੰਦਰੁਸਤ ਲੱਭਣ ਦੇ ਸਮਰੱਥ ਸੀ।

ਦੱਸਣਯੋਗ ਹੈ ਕਿ ਪਹਿਲੇ ਸਮੇਂ ਵਿੱਚ, ਕਿਸੇ ਖਾਸ ਮਨੁੱਖ ਦੀ ਆਵਾਜ਼ ਨੂੰ ਭਰੋਸੇਯੋਗ ਢੰਗ ਨਾਲ ਲੈਣ ਲਈ ਕੰਪਿਊਟਰ ਨੂੰ ਰਿਕਾਰਡਿੰਗ ਦੀ ਲੰਮੀ ਮਾਤਰਾ ਅਤੇ ਬਹੁਤ ਸਾਰਾ ਸਮਾਂ ਲੱਗਦਾ ਸੀ। ਪਰ ਹੁਣ, AI ਟੈਕਨਾਲੋਜੀ ਦੇ ਸ਼ੁਰੂ ਹੋਣ ਦੇ ਨਾਲ, ਮਾਹਰ ਕਹਿੰਦੇ ਹਨ ਕਿ ਤੁਸੀਂ ਹੱਥ ਵਿੱਚ ਸਿਰਫ ਕੁਝ ਸਕਿੰਟਾਂ ਦੀ ਰਿਕਾਰਡ ਕੀਤੀ ਸਮੱਗਰੀ ਨਾਲ ਆਵਾਜ਼ ਦੀ ਨਕਲ ਕਰ ਸਕਦੇ ਹੋ।

 ਏਆਈ ਵਿੱਚ ਮਾਹਰ ਐਰੀਜ਼ੋਨਾ ਸਟੇਟ ਯੂਨੀਵਰਸਿਟੀ ਦੇ ਕੰਪਿਊਟਰ ਵਿਗਿਆਨ ਦੇ ਪ੍ਰੋਫੈਸਰ ਸੁਬਾਰਾਓ ਕੰਭਮਪਤੀ ਨੇ ਇੱਕ ਨਿਊਜ਼ ਚੈਨਲ ਨੂੰ ਦੱਸਿਆ, "ਤੁਸੀਂ ਹੁਣ ਆਪਣੇ ਕੰਨਾਂ 'ਤੇ ਭਰੋਸਾ ਨਹੀਂ ਕਰ ਸਕਦੇ। ਜ਼ਿਆਦਾਤਰ ਵੌਇਸ ਕਲੋਨਿੰਗ ਅਸਲ ਵਿੱਚ ਪ੍ਰਭਾਵ ਦੇ ਨਾਲ ਨਾਲ ਭਾਵਨਾਵਾਂ ਨੂੰ ਕੈਪਚਰ ਕਰਦੀ ਹੈ। ਸਪੱਸ਼ਟ ਤੌਰ 'ਤੇ, ਜੇਕਰ ਤੁਸੀਂ ਆਪਣੀ ਆਮ ਆਵਾਜ਼ ਵਿੱਚ ਬੋਲਦੇ ਹੋ, ਤਾਂ ਮੈਂ ਜ਼ਰੂਰੀ ਤੌਰ 'ਤੇ ਇਹ ਕਲੋਨ ਕਰਨ ਦੇ ਯੋਗ ਨਹੀਂ ਹੁੰਦਾ ਕਿ ਜਦੋਂ ਤੁਸੀਂ ਪਰੇਸ਼ਾਨ ਹੁੰਦੇ ਹੋ ਤਾਂ ਤੁਸੀਂ ਕਿਸ ਤਰ੍ਹਾਂ ਦੀ ਆਵਾਜ਼ ਦੇ ਸਕਦੇ ਹੋ, ਪਰ ਜੇਕਰ ਮੇਰੇ ਕੋਲ ਤੁਹਾਡੀ ਪਰੇਸ਼ਾਨ ਆਵਾਜ਼ ਦੇ ਤਿੰਨ ਸਕਿੰਟ ਵੀ ਹਨ, ਤਾਂ ਸੱਟੇਬਾਜ਼ੀ ਦੇ ਸ਼ਿਕਾਰ ਹੋ ਸਕਦੇ ਹੋ।


ਇਸ ਮਾਮਲੇ ਵਿਚ, ਘੁਟਾਲਾ ਕਰਨ ਵਾਲਾ, ਜਿਸ ਦੀ ਪੁਲਿਸ ਅਜੇ ਵੀ ਜਾਂਚ ਕਰ ਰਹੀ ਹੈ, ਨੇ ਨਕਲੀ ਬੁੱਧੀ ਵਾਲੀ ਵੌਇਸ ਕਲੋਨ ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਕੀਤੀ ਜਾਪਦੀ ਹੈ, ਜੋ ਕਿ ਲੋਕਾਂ ਦੀਆਂ ਆਵਾਜ਼ਾਂ ਦੀ ਨਕਲ ਕਰਨ ਵਿੱਚ ਹਾਲ ਹੀ ਦੇ ਸਾਲਾਂ ਵਿੱਚ ਵੱਧ ਤੋਂ ਵੱਧ ਸਮਰੱਥ ਬਣ ਗਈ ਹੈ।

ਇੰਟਰਨੈੱਟ 'ਤੇ ਮੁਫ਼ਤ ਉਪਲਬਧ AI ਟੂਲਸ ਦੇ ਨਾਲ, ਇਸ ਤੱਕ ਪਹੁੰਚ ਅਤੇ ਵਰਤੋਂ ਕਰਨਾ ਮੁਕਾਬਲਤਨ ਆਸਾਨ ਹੈ। ਸਟਾਰ ਵਾਰਜ਼ ਫਰੈਂਚਾਇਜ਼ੀ ਵਿੱਚ ਅਸਲ ਡਾਰਥ ਵੇਡਰ ਦੇ ਕਿਰਦਾਰ ਨੂੰ ਆਵਾਜ਼ ਦੇਣ ਵਾਲੇ ਜੇਮਜ਼ ਅਰਲ ਜੋਨਸ ਵਰਗੇ ਅਦਾਕਾਰਾਂ ਦੀ ਨਕਲ ਕਰਨ ਲਈ ਫਿਲਮਾਂ ਵਿੱਚ ਏਆਈ ਦੁਆਰਾ ਤਿਆਰ ਕੀਤੀਆਂ ਆਵਾਜ਼ਾਂ ਦੀ ਵਰਤੋਂ ਪਹਿਲਾਂ ਹੀ ਕੀਤੀ ਜਾ ਚੁੱਕੀ ਹੈ ।

ਇਸ ਨੂੰ ਲੇਖਕਾਂ ਲਈ ਆਪਣੇ ਕੰਮ ਨੂੰ ਪੜ੍ਹਨ ਲਈ ਸਟੂਡੀਓ ਵਿੱਚ ਘੰਟੇ ਬਿਤਾਏ ਬਿਨਾਂ ਆਡੀਓਬੁੱਕ ਤਿਆਰ ਕਰਨ ਦੇ ਇੱਕ ਤਰੀਕੇ ਵਜੋਂ ਵੀ ਕਿਹਾ ਗਿਆ ਹੈ। ਟੈਕਨਾਲੋਜੀ ਨੇ ਇਹ ਡਰ ਵੀ ਪੈਦਾ ਕੀਤਾ ਹੈ ਕਿ ਘੁਟਾਲੇਬਾਜ਼ਾਂ ਜਾਂ ਡੂੰਘੇ ਜਾਅਲੀ ਵੀਡੀਓ ਬਣਾਉਣ ਦੀ ਕੋਸ਼ਿਸ਼ ਕਰਨ ਵਾਲੇ ਲੋਕਾਂ ਦੁਆਰਾ ਇਸ ਦੀ ਦੁਰਵਰਤੋਂ ਕੀਤੀ ਜਾ ਸਕਦੀ ਹੈ, ਇੱਕ ਵੌਇਸ ਕਲੋਨ ਸਟਾਰਟਅਪ ਚੇਤਾਵਨੀ ਦੇ ਨਾਲ ਕਿ ਇਹ "ਗਲਤ ਹੱਥਾਂ ਵਿੱਚ ਨੁਕਸਾਨਦੇਹ" ਹੋ ਸਕਦਾ ਹੈ।

ਪਿਛਲੇ ਸਾਲ ਇੱਕ ਪ੍ਰੈਸ ਰਿਲੀਜ਼ ਵਿੱਚ, ਫਰਮ Respeecher ਨੇ ਕਿਹਾ: "ਵਿਆਪਕ ਧਿਆਨ ਅਤੇ ਡੀਪਫੇਕ ਤਕਨਾਲੋਜੀਆਂ ਨੂੰ ਅਪਣਾਉਣ ਨਾਲ ਤਕਨਾਲੋਜੀ ਦੀ ਵਰਤੋਂ ਨੂੰ ਨਿਯਮਤ ਕਰਨ ਦੀ ਜ਼ਰੂਰਤ ਵਿੱਚ ਤੇਜ਼ੀ ਆਵੇਗੀ।"