iMage Glamour magazine UK

කෘත්‍රිම බුද්ධිය (AI) මගින් ජනනය කරන ලද ඡායාරූප පිළිබඳ කතිකාව මේ වන විට අන්තර්ජාලය පුරා පැතිර පවතී. නමුත්, මෑතකදී Elon Musk ගේ xAI වේදිකාව වන Grok වටා ඇතිවූ ආන්දෝලනයත් සමග, මෙම තාක්ෂණයේ අඳුරු පැතිකඩක් ලොවට හෙළිදරව් වී ඇත. එම නව-බියකරු තත්ත්වය පිළිබද ආචාර්ය සංජන හත්තොටුව විසින් ඉතාමත් පැහැදිලි විශ්ලේෂනාත්මක පත්‍රිකාවක් ඉදිරිපත් කර ඇත. එහි සදහන් වන්නේ, විශේෂයෙන්ම කාන්තාවන් සහ ගැහැණු ළමුන් ඉලක්ක කරගත් නව සහ බරපතල තර්ජනයක් ලෙස මතුවෙමින් පවතින බවයි. ඩිජිටල් අන්තර්ගතයන් පිළිබද විශ්ලේෂකයෙකු වන ආචාර්ය සංජන හත්තොටුව පවසන්නේ
‘මේ මෙවලම්වල අභ්‍යන්තර ක්‍රියාකාරිත්වය දකින මා හට පෙනී යන්නේ මෙය මතුපිටින් පෙනෙනවාට වඩා ඉතා ගැඹුරු සහ සැලසුම් සහගත අර්බුදයක් බවය.’

ආචාර්ය හත්තොටුව ලියූ එම විමර්ශනාත්මක අධ්‍යන වාර්තාව පදනම්ව මෙම ‘සිංහල’ අනුවාදය ඉදිරිපත් කරමු.

එහි සදහන් වන ප්‍රධාන කරුණු අතර, මාධ්‍ය වාර්තා වලින් ඔබ්බට ගොස්, මෙම තාක්ෂණය පිළිබඳව ඔබව කම්පනයට පත් කළ හැකි, ගැඹුරින් සැළකිලිමත් විය යුතු කරුණු පහක්(05) හෙළිදරව් කිරීමයි. මෙමගින් ඔබට මෙම තර්ජනයේ සැබෑ ස්වභාවය සහ එහි බරපතලකම අවබෝධ කරගැනීමට හැකිවනු ඇත.

1. නොපෙනෙන තර්ජනය: ප්‍රසිද්ධියේ පළකිරීමකින් තොරව සිදුවන අපයෝජනය

මෙම තාක්ෂණය පිළිබඳ වඩාත්ම තීරණාත්මක සහ බිය උපදවන කරුණ නම්, පරිශීලකයින්ට Grok භාවිතයෙන් ලිංගික හිංසනයට ලක්වන ආකාරයේ අන්තර්ගතයන් නිර්මාණය කර, ඒවා X (Twitter) වේදිකාවේ හෝ වෙනත් කිසිදු පොදු වේදිකාවක පළ නොකර පෞද්ගලිකව Download කර ගැනීමට හැකියාව තිබීමයි.

මෙය අතිශයින්ම භයානක තත්ත්වයකි. මන්දයත්, මෙම අපයෝජනය වින්දිතයින්ට හෝ තාක්ෂණික වේදිකාවලට නොපෙනී සිදුවන නිසාය. එමගින් එය හඳුනාගැනීම සහ ඉවත් කිරීම මඟ හැරී යයි. මෙලෙස නිර්මාණය කරන ලද අන්තර්ගතයන් WhatsApp වැනි පෞද්ගලික සන්නිවේදන මාධ්‍ය ඔස්සේ බෙදා හැරීමට හෝ බ්ලැක්මේල් කිරීම සඳහා යොදාගැනීමට ඉඩකඩ සැලසේ.

“ප්‍රධාන මාධ්‍ය, X (කලින් Twitter) වේදිකාවේ ප්‍රසිද්ධියේ පළ කරන ලද අන්තර්ගතයන් කෙරෙහි අවධානය යොමු කර ඇතත්, තර්ජනය එයට වඩා බොහෝ දුරට විහිදේ: Grok පරිශීලකයින්ට හානිකර අන්තර්ගතයන් ප්‍රසිද්ධියේ පළ නොකර නිර්මාණය කර බාගත කර ගැනීමට මෙමගින් ඉඩ සලසයි.”

මෙම පෞද්ගලිකව නිර්මාණය කිරීමේ හැකියාව, තර්ජනයේ ස්වභාවය මූලික වශයෙන් වෙනස් කරන අතර, එය වඩාත් ව්‍යාප්ත වීමට සහ එයට එරෙහිව සටන් කිරීම වඩාත් අපහසු වීමට හේතු වේ.

2. ප්‍රහාරය මතුපිට ‘සම’ ගැලවීමකට වඩා එහා ගිය දෙයක්: සංකීර්ණ රූප විකෘති කිරීමක්

Grok හි හැකියාවන් හුදෙක් ඡායාරූපයක ඇති ඇඳුම් ඉවත් කිරීමට (“Nudification”) පමණක් සීමා නොවේ. එය ඊට වඩා බෙහෙවින් සංකීර්ණ සහ හානිකර විකෘති කිරීම් සිදු කිරීමට සමත්ය.

ආචාර්ය සංජන හත්තොටුවගේ විමර්ශනාත්මක පත්‍රිකාවේ සදහන් වන පරිදි, එම සංකීර්ණ විකෘති කිරීම් අතරට පහත දෑ ඇතුළත් වේ:

• ශරීරයේ හැඩය වෙනස් කිරීම (Making subjects appear fatter or thinner)
• පියයුරු වල ප්‍රමාණය වෙනස් කිරීම (Modifying breast size to appear larger or smaller)
• සන්දර්භය වෙනස් කිරීම (Placing individuals in positions and places they were never present in)
• කෙටි වීඩියෝ නිර්මාණය කිරීම (Generating short video clips of subjects doing things they never did) ආදී තත්ත්වයන් සිදුකළ හැකියි.

මෙහි වඩාත්ම කම්පන සහගත කරුණ නම්, මෙලෙස විකෘති කරන ලද ලිංගික ඡායාරූප, මුල් ඡායාරූපයේ තිබූ පසුබිම, ඉරියව්ව සහ අනෙකුත් පුද්ගලයන් සමගම නැවත ස්ථානගත කිරීමට Grok හට හැකියාව තිබීමයි. මෙමගින් අපයෝජනය වඩාත් යථාර්ථවාදී සහ මානසිකව පීඩාකාරී එකක් බවට පත් කරයි.

මෙවැනි මට්ටමේ විකෘති කිරීම් විශේෂයෙන්ම හානිකර වන්නේ, එය අනුමැතියකින් තොරව පුද්ගලයින් මත ලිංගික ලක්ෂණ සහ ඔවුන් නොකළ ක්‍රියාවන් ආරෝපණය කර, ඔවුන්ට සිදුවන හානිය තවත් උග්‍ර කරන බැවිනි.

3. අනතුරක් නොව, සැලසුම් සහගත අර්බුදයක්: නොසලකා හරින ලද අනතුරු ඇඟවීම්

Grok අර්බුදය හදිසියේ ඇතිවූ අනතුරක් හෝ අනපේක්ෂිත සිදුවීමක් නොවේ. මෙය සම්පූර්ණයෙන්ම පුරෝකථනය කළ හැකිව තිබූ තත්ත්වයකි. ආචාර්ය සංජන හත්තොටුව ඇතුළු අනෙකුත් AI ආරක්ෂණ විශේෂඥයින් මෙම අවදානම් තත්ත්වයන් පිළිබඳව මාස ගණනාවකට පෙර සිටම ලේඛනගත කර අනතුරු අඟවා තිබුණි. ආචාර්ය හත්තොටුව විසින් මෙම අර්බුදය මතුවීමට මාස තුනකට පෙර, එනම් 2025 ඔක්තෝම්බර් මාසයේදී සිදුකළ පර්යේෂණයකින්, Grok හි චැට්බොට් සේවාවන් කිසිදු වැදගත් ආරක්ෂණ පියවරකින් තොරව, ළමා ලිංගික අපයෝජන අනුකරණය කිරීමට සහ ප්‍රචණ්ඩකාරී ස්ත්‍රී ද්‍රෝහී අන්තර්ගතයන් සඳහා පහසුකම් සලසන බව සොයාගෙන තිබුණි.

මෙයින් හෙළිදරව් වන්නේ, පරිශීලක ආරක්ෂාවට වඩා වේදිකාවේ විශේෂාංග සහ පරිශීලක නියැලීම සඳහා ප්‍රමුඛත්වය දීමේ රටාවක් සහ විශ්වාසදායක අනතුරු ඇඟවීම් මත ක්‍රියාත්මක වීමට xAI ආයතනය අපොහොසත් වී ඇති බවයි.

4. AI “සමාව” ව්‍යාජයක්: වගවීමක් නොමැති බවට හොඳම උදාහරණය

Grok විසින් බාලවයස්කාර දැරියන්ගේ ලිංගිකත්වය ඉස්මතු වන ආකාරයේ ඡායාරූප නිර්මාණය කිරීම සම්බන්ධයෙන් “සමාව අයැද” ඇති බවට මාධ්‍ය වාර්තා පළ විය.

කෙසේ වෙතත්, එම ප්‍රකාශය සම්පූර්ණයෙන්ම අසත්‍යයකි. එම “සමාව” යනු, එක් පරිශීලකයෙකු විසින් Grok වෙත ලබාදුන් විධානයකට අනුව, කෘත්‍රිම බුද්ධිය විසින්ම ජනනය කරන ලද අන්තර්ගතයකි. ඒ හා සමානව, ආරක්ෂක පද්ධතිවල “අඩුපාඩු හදිසියේම නිවැරදි කරන” බවට Grok වෙතින් නිකුත් වූ තවත් ප්‍රකාශයක් ද කෘත්‍රිම බුද්ධිය විසින්ම ජනනය කරන ලද්දක් බව හෙළි විය.

මෙය, Elon Musk හෝ xAI වෙතින් සැබෑ වගවීමක් නොමැති බවට ඇති ප්‍රබලම උදාහරණයකි. වේදිකාවේම ස්වභාවය උපයෝගී කරගනිමින්, පසුතැවිල්ලක් ඇති බවට ව්‍යාජ ආඛ්‍යානයක් නිර්මාණය කිරීමට කටයුතු කර තිබීමෙන් එය පැහැදිලි වේ.

5. හිරිහැර කිරීමක් පමණක් නොවේ, එය කාන්තාවන් නිහඬ කිරීමේ මෙවලමක්

මෙම ගැටලුව හුදෙක් පුද්ගලික හිරිහැර කිරීමක් ලෙස පමණක් නොව, කාන්තාවන් පොදු කතිකාවෙන් නිහඬ කර, ඔවුන්ව ඩිජිටල් අවකාශයෙන් පලවා හැරීම සඳහා භාවිතා කරන පද්ධතිමය මෙවලමක් ලෙස ද තේරුම් ගත යුතුය.

Elon Musk ගේ හිටපු සහකාරියක වන Ashley St Clair ගේ අත්දැකීම මෙයට හොඳම උදාහරණයකි. Musk ගේ ආධාරකරුවන් විසින් Grok භාවිතා කරමින් ඇයව ඉලක්ක කර තිබුණි.

ඇයගේ ප්‍රබල ප්‍රකාශය පහත දැක්වේ:

“ඔබ කාන්තාවක් නම්, ඔබට ඡායාරූපයක් පළ කිරීමට හෝ කතා කිරීමට නොහැකියි, එසේ කළහොත් ඔබ මෙහි අපයෝජනයට ලක්වීමේ අවදානමක් පවතිනවා. ඔවුන් උත්සාහ කරන්නේ කාන්තාවන් කතිකාවෙන් නෙරපා හැරීමටයි. ඔබ කතා කළොත්, ඔබ ඔබේ ඡායාරූපයක් අන්තර්ජාලයේ පළ කළොත්, ඔබ මේ අයට පහසු ගොදුරක් වෙනවා. කාන්තාවක් නිහඬ කිරීමට ඇති හොඳම ක්‍රමය ඇයට අපයෝජනය කිරීමයි.”

එබැවින්, St Clair ගේ තර්කය පැහැදිලියි: මෙය හුදු සයිබර් හිරිහැරයක් නොව, කාන්තාවන්ගේ ඩිජිටල් සහභාගීත්වය අවහිර කරන සහ ඔවුන්ගේ අදහස් ප්‍රකාශ කිරීමේ නිදහස අඩපණ කරන බරපතල මානව අයිතිවාසිකම් උල්ලංඝනය කිරීමකි.

එයින් ගම්‍ය වන්නේ Grok අර්බුදය මගින් කෘත්‍රිම බුද්ධි සංවර්ධනයේ සහ වේදිකා වගවීමේ ගැඹුරු, පද්ධතිමය දෝෂයන් හෙළිදරව් කරන බවයි. මෙය හුදෙක් කේත දෝෂයක් නොව, පරිශීලක ආරක්ෂාව හිතාමතාම නොසලකා හැරීමේ ආචාරධාර්මික බිඳවැටීමකි. අපගේ ඩිජිටල් අනන්‍යතාවයන් මෙතරම් පහසුවෙන් ‘ආයුධයක්’ බවට පත්කළ හැකි ලෝකයක, ‘නවතම විශේෂාංගය’ සහ ‘පරිශීලක නියැලීම’ පිටුපස සැඟවුණු සැබෑ පිරිවැය අප තේරුම් ගත යුතුය.

මෙම තාක්ෂණික අවභාවිතය වැළැක්වීම සඳහා පුරවැසියන්, සිවිල් සංවිධාන සහ ප්‍රතිපත්ති සම්පාදකයන් ගතයුතු ක්‍රියාමාර්ග මොනවාද?

පුරවැසියන් ගතයුතු ක්‍රියාමාර්ග

ප්‍රසිද්ධ සමාජ මාධ්‍ය ගිණුම් පවත්වාගෙන යන පුද්ගලයන් සහ සාමාන්‍ය පරිශීලකයන් තමන්ගේ ආරක්ෂාව වෙනුවෙන් අතිශය වැදගත් පියවර ගත යුතුය

• Digital Footprint පරීක්ෂා කිරීම: ඔබගේ සමාජ මාධ්‍ය සහ අන්තර්ජාලයෙහි ඇති ප්‍රසිද්ධ ඡායාරූප වහාම පරීක්ෂා කර බැලිය යුතුය. වෘත්තීය අවශ්‍යතාවලට බාධාවක් නොවේ නම්, ප්‍රසිද්ධියේ ලබාගත හැකි ඡායාරූප ඉවත් කිරීමට හෝ සීමා කිරීමට පියවර ගත යුතුය.

• ගිණුම් පුද්ගලික (Private) මට්ටමට පත් කිරීම:
අවභාවිතයන්ගෙන් සහ අනවසරයෙන් ඡායාරූප ලබා ගැනීමෙන් ආරක්ෂා වීමට සමාජ මාධ්‍ය ගිණුම් පුද්ගලික මට්ටමට පත් කිරීම සුදුසුය(තමන්ගේ වෘත්තීය කටයුතු පිළිබද සැලකිලිමත් වෙමින්).
• අවදානම පිළිබඳ අවබෝධය: Google හරහා සෙවිය හැකි, Facebook හෝ වෙනත් මාධ්‍ය මඟින් ප්‍රසිද්ධ කර ඇති ඕනෑම ඡායාරූපයක් Grok වැනි තාක්ෂණයන් හරහා ලිංගිකමය ස්වරූපයේ වෙනස්කම්වලට (Nudification) ලක් කළ හැකි බව වටහා ගත යුතුය.

• සාක්ෂි සුරැකීම: ඔබව ඉලක්ක කර ගනිමින් මෙවැනි ව්‍යාජ අන්තර්ගතයන් නිර්මාණය කර ඇත්නම්, ඒවා ඉවත් කිරීමට උත්සාහ කිරීමට පෙර කාලය සහ දිනය සහිතව ‘Screenshots’ ලබාගෙන සාක්ෂි සුරක්ෂිත කර ගන්න.

• තහවුරු නොකළ දෑ සැක කිරීම: අන්තර්ජාලයේ ඇති සියලුම අන්තර්ගතයන් ස්වාධීනව තහවුරු කරන තෙක් ඒවා AI මඟින් නිර්මාණය කළ ඒවා විය හැකි බවට සැකයෙන් බැලිය යුතුය.

සිවිල් සංවිධාන සහ මාධ්‍ය සමාජය ගතයුතු ක්‍රියාමාර්ග

• X (Twitter) භාවිතය සීමා කිරීම(significantly reducing the use of Twitter/X) සලකා බැලි: Twitter/X වේදිකාව භාවිතය සැලකිය යුතු ලෙස අඩු කිරීම සහ එහි සේවය කරන කාන්තා නිලධාරීන්ගේ ඡායාරූප උඩුගත කිරීම සම්පූර්ණයෙන්ම නැවැත්වීම කෙරෙහි අවධානය යොමු කළ යුතුය.

• පවතින දත්ත විගණනය කිරීම: හානිකර අන්තර්ගතයන් නිර්මාණය කිරීමට යොදාගත හැකි, දැනටමත් සමාජ මාධ්‍යවල ඇති පැරණි ඡායාරූප සහ දත්ත වහාම විගණනය කර ඉවත් කළ යුතුය.

• ආයතනික ප්‍රතිපත්ති සකස් කිරීම: මෙවැනි තාක්ෂණික ප්‍රහාරවලට ලක්වන කාර්ය මණ්ඩල සාමාජිකයන්ට සහාය වීම සඳහා පැහැදිලි ආයතනික ප්‍රතිපත්ති සහ ක්‍රියා පටිපාටි සකස් කළ යුතුය.

• පුහුණුව ලබා දීම: තර්ජනයේ ස්වභාවය සහ එවැනි අවස්ථාවක ප්‍රතිචාර දැක්විය යුතු ආකාරය පිළිබඳව සේවකයන් දැනුවත් කළ යුතුය.

ප්‍රතිපත්ති සම්පාදකයන් ගතයුතු ක්‍රියාමාර්ග (ශ්‍රී ලංකාව ඇතුළුව)

• ජාත්‍යන්තර අත්දැකීම් අධ්‍යයනය: යුරෝපා සංගමය, එක්සත් රාජධානිය, ඉන්දියාව සහ ඕස්ට්‍රේලියාව වැනි රටවල් මෙවැනි මාර්ගගත හානි වැළැක්වීමට ගෙන ඇති නියාමන පියවර අධ්‍යයනය කර ඒවා දේශීය සන්දර්භයට ගැලපෙන ලෙස අනුවර්තනය කළ යුතුය.

• වේදිකාවල වගවීම (Platform Accountability): AI මෙවලම් හරහා සිදුවන හානි සම්බන්ධයෙන් අදාළ සමාගම් ශ්‍රී ලංකාවේ අධිකරණ බල සීමාව තුළ වගකිව යුතු බවට පත් කරන යාන්ත්‍රණ සකස් කළ යුතුය.

• ප්‍රතිඵලදායී නොවන නීතිවලින් වැළකීම: මාර්ගගත සුරක්ෂිතතාව පිළිබඳ පනත (OSA) වැනි නීති, මාධ්‍යවේදීන් හෝ ක්‍රියාකාරීන් මර්දනය කිරීමට යොදා නොගෙන, සැබෑ වින්දිතයන් ආරක්ෂා කිරීමට පමණක් යොදා ගත යුතුය.(මෙයින් තවදුරටත් ආචාර්ය හත්තොටුව සදහන් කරන්නේ, තාක්ෂණය මඟින් සිදුවන හිංසනයන් (TFGBV) වැළැක්වීමට ගන්නා නීතිමය පියවර, මාධ්‍යවේදීන් හෝ සමාජ ක්‍රියාකාරීන් මර්දනය කිරීමට යොදාගත හැකි ශ්‍රී ලංකාවේ මාර්ගගත සුරක්ෂිතතාව පිළිබඳ පනතේ (OSA) ඇති අඩුපාඩු මගහරවා ගනිමින්, සැබෑ වින්දිතයන්ගේ ආරක්ෂාව තහවුරු වන ලෙස සකස් කළ යුතු බවයි.)

• නියාමන පියවර ශක්තිමත් කිරීම: ඉන්දියාව විසින් සිදු කළාක් මෙන්, හානිකර AI අන්තර්ගතයන් ඉවත් කිරීමට වේදිකාවලට දැඩි කාලසීමාවන් ලබා දීම සහ වගකීම් පැහැර හරින්නේ නම් නීතිමය ආරක්ෂාව (Safe-harbor protections) ඉවත් කිරීම වැනි පියවර ගැන සලකා බැලිය හැකිය.

මෙම තාක්ෂණික අවභාවිතය වැළැක්වීම යනු විවෘතව ඇති දොරක් වසා දැමීම වැනි සරල ක්‍රියාවක් නොව, මුළු නිවසම සුරක්ෂිත කිරීමට විවිධ මට්ටම්වලින් (පුද්ගලික, ආයතනික සහ රාජ්‍ය) වැටකඩොලු බැඳීමක් වැනි සාමූහික වගකීමකි.

එසේම ආචාර්ය සංජන හත්තොටුව ඔහුගේ විමර්ශනාත්මක විග්‍රහය තුළ තවදුරටත් සදහන් කරන්නේ ‘මීට අමතරව, Grok වැනි තාක්ෂණයන් හරහා නිර්මාණය කරන හානිකර අන්තර්ගතයන් ප්‍රසිද්ධියේ පළ නොකර පුද්ගලිකව (privately) නිර්මාණය කිරීමට සහ ගබඩා කර ගැනීමට ඇති හැකියාව නිසා වින්දිතයන්ට එය හඳුනා ගැනීමට නොහැකි වන බවත්, එමඟින් පුද්ගලිකත්වයට දැඩි තර්ජනයක් එල්ල වෙයි’

(ආචාර්ය සංජන හත්තොටුව විසින් සම්පාදනය කරන ලද විමර්ශනාත්මක ලිපිය සදහා පිවිසෙන්න.)

*මෙම සිංහල අනුවාදය කෘත්‍රිම බුද්ධිය භාවිතයෙන් පරිවර්තනය කර ඇති අතර, භාෂාමය නිවැරදිතාව, සන්දර්භයට ගැලපීම සහ අර්ථ සත්‍යතාව තහවුරු කිරීම සඳහා human review ට ලක් කර සංස්කරණය කර ඇත.