এআই ছবির ফাঁদে ফেসবুক: ট্রেন্ডের নামে গোপনীয়তার হরণ?

তথ্যপ্রযুক্তি কণ্ঠ ডেস্ক :

ফেসবুক খুললেই চোখে পড়ে চকচকে, রঙিন, সিনেমাটিক এআই-সম্পাদিত ছবি। কেউ ৯০ দশকের বলিউড তারকা, কেউ ডিজাইনার টয়, কেউ আবার সোনালি আলোয় মোড়া পোলারয়েডে বন্দি। এইসব ছবি তৈরি হচ্ছে গুগলের জিমিনি প্ল্যাটফর্মের নতুন টুল “ন্যানো বানানা”-এর মাধ্যমে। সহজে ব্যবহারযোগ্য, মজার, এবং সৃজনশীল—এই টুলের মাধ্যমে যে কেউ নিজের ছবি দিয়ে তৈরি করতে পারেন ত্রিমাত্রিক মডেল বা রেট্রো স্টাইলের পোর্ট্রেট।

কিন্তু প্রশ্ন হচ্ছে—এই মজা কি নিরাপদ?

ন্যানো বানানা কীভাবে কাজ করে?

ন্যানো বানানা হলো গুগলের Gemini 2.5 Flash Image মডেলের একটি ফিচার, যা ব্যবহারকারীর আপলোড করা ছবি থেকে তৈরি করে অত্যন্ত বাস্তবসম্মত 3D ফিগার, রেট্রো স্টাইলের পোর্ট্রেট, কিংবা অ্যানিমেটেড অবতার। ব্যবহারকারী শুধু একটি ছবি আপলোড করে একটি প্রম্পট দেয়, আর কয়েক সেকেন্ডের মধ্যেই তৈরি হয় আকর্ষণীয় এআই ছবি।

এই টুলের জনপ্রিয়তা এতটাই বেড়েছে যে সেপ্টেম্বর ২০২৫-এর মধ্যে ৫০০ মিলিয়নের বেশি ছবি তৈরি হয়েছে এবং অ্যাপটি ভারতসহ বিভিন্ন দেশে শীর্ষে পৌঁছেছে।

গোপনীয়তার ঝুঁকি: কী বলছেন বিশেষজ্ঞরা?

এই ট্রেন্ডের উত্থানের সঙ্গে সঙ্গে সাইবার বিশেষজ্ঞরা সতর্কতা জারি করেছেন। তাঁদের মতে, এই ধরনের এআই টুলে ছবি আপলোড করার মাধ্যমে ব্যবহারকারীরা অজান্তেই নিজেদের ব্যক্তিগত তথ্য অন্যের হাতে তুলে দিচ্ছেন।

– ব্যক্তিগত ছবি সংরক্ষণ: গুগলের শর্ত অনুযায়ী, আপলোড করা ছবি ভবিষ্যতের এআই মডেল ট্রেনিংয়ের জন্য ব্যবহার হতে পারে। অর্থাৎ, আপনার ছবি থেকে তৈরি এআই ছবি ভবিষ্যতে অন্যের প্রম্পটে পুনরায় ব্যবহার হতে পারে।
– ডিপফেকের আশঙ্কা: অত্যন্ত বাস্তবসম্মত ছবি তৈরি হওয়ায়, এগুলো দিয়ে সহজেই ডিপফেক ভিডিও বানানো সম্ভব। বিশেষ করে নারীদের ক্ষেত্রে এটি সম্মানহানির কারণ হতে পারে।
– মেটাডেটা ফাঁস: ছবি আপলোডের সময় তার সঙ্গে ফোনের তথ্য, লোকেশন, ক্যামেরা সেটিংস ইত্যাদি মেটাডেটা চলে যায় প্ল্যাটফর্মে। এই তথ্য হ্যাক বা বিক্রি হয়ে যেতে পারে।

“মোল” বিতর্ক: এআই কি অতীত জানে?

একজন ব্যবহারকারী ইনস্টাগ্রামে অভিযোগ করেন, তিনি একটি ছবি আপলোড করেছিলেন যেখানে তাঁর হাতে কোনো তিল ছিল না। কিন্তু এআই-সম্পাদিত ছবিতে সেই তিল দেখা যায়—যা বাস্তবে তাঁর হাতে আছে। প্রশ্ন উঠেছে, এআই কীভাবে জানল সেই তথ্য? গুগল বলেছে এটি “কাকতালীয়” ঘটনা, কিন্তু ব্যবহারকারীদের উদ্বেগ কমেনি।

নারীদের জন্য বিশেষ সতর্কতা

নারীরা এই ট্রেন্ডে বেশি অংশ নিচ্ছেন, বিশেষ করে “সাড়ি ট্রেন্ড”-এ। কিন্তু তাঁদের ছবি দিয়ে ডিপফেক, ফেক পর্নোগ্রাফি, কিংবা ব্ল্যাকমেইলের আশঙ্কা বেশি। সাইবার বিশেষজ্ঞরা বলছেন, নারীদের উচিত এই ধরনের প্ল্যাটফর্মে ছবি আপলোড করার আগে ভালোভাবে শর্তাবলি পড়া এবং নিরাপত্তা যাচাই করা।

নিরাপদ থাকার উপায়

বিশেষজ্ঞরা কিছু গুরুত্বপূর্ণ পরামর্শ দিয়েছেন:

– উচ্চ রেজোলিউশনের ছবি আপলোড না করা।
– মেটাডেটা (লোকেশন, ক্যামেরা তথ্য) মুছে ফেলা।
– অফিশিয়াল অ্যাপ ছাড়া অন্য কোনো ওয়েবসাইটে ছবি না দেওয়া।
– প্রাইভেসি সেটিংস শক্ত করা।
– AI-generated ছবি শেয়ার করার সময় সতর্ক থাকা।

ডার্ক ওয়েবের ভয়

বিশেষজ্ঞরা আশঙ্কা করছেন, এইসব এআই ছবি ডার্ক ওয়েবে বিক্রি হতে পারে। সেখানে এগুলো ব্যবহার হতে পারে পর্নোগ্রাফি, প্রতারণা, কিংবা পরিচয় চুরির কাজে। একবার ছবি চলে গেলে, তা ফিরিয়ে আনা প্রায় অসম্ভব।

ট্রেন্ডের নামে প্রতারণা

অনেক ভুয়া ওয়েবসাইট এখন “ন্যানো বানানা”-এর নাম ব্যবহার করে ব্যবহারকারীদের ছবি চেয়ে নিচ্ছে। এসব সাইটে ছবি দিলে তা সরাসরি হ্যাকারদের হাতে চলে যেতে পারে। IPS অফিসার VC Sajjanar বলেছেন, “এক ক্লিকে আপনার ব্যাংক অ্যাকাউন্ট খালি হয়ে যেতে পারে”।

ন্যানো বানানা বা এআই ছবি তৈরি নিঃসন্দেহে সৃজনশীলতার নতুন দিগন্ত খুলে দিয়েছে। কিন্তু এর সঙ্গে এসেছে গোপনীয়তা, নিরাপত্তা, এবং নৈতিকতার প্রশ্ন। সোশ্যাল মিডিয়ায় ট্রেন্ডে গা ভাসাতে গিয়ে যেন নিজের সম্মান, পরিচয়, কিংবা অর্থনৈতিক নিরাপত্তা হারিয়ে না ফেলেন।

সতর্ক থাকুন। সচেতন থাকুন। প্রযুক্তিকে ব্যবহার করুন, প্রযুক্তির দ্বারা ব্যবহৃত হবেন না।

বুধবার, ২৪ সেপ্টেম্বর ২০২৫

শেয়ার করুন
বুধবার, ২৪ সেপ্টেম্বর ২০২৫

You might like

About the Author: priyoshomoy