තාක්ෂණික ශිෂ්ටාචාරයේ තීරණාත්මක සන්ධිස්ථානයකට අප පැමිණ සිටිමු. කෘත්රිම බුද්ධිය (AI) යනු හුදෙක් අපගේ ජීවිත පහසු කරන මෘදුකාංගයක් පමණක් නොව, එය ලෝක බල තුලනය තීරණය කරන අලුත්ම සාධකය බවට පත්ව තිබේ. මෑතකදී ඇමෙරිකානු ආරක්ෂක අංශ 'Anthropic' සමාගමේ 'Claude' AI තාක්ෂණය යුධමය අවශ්යතා සඳහා යොදාගත් පුවතින් තහවුරු වන්නේ, මනුෂ්ය වර්ගයාගේ යහපත උදෙසා නිර්මාණය කළ මෙවලම් පවා කෙමෙන් කෙමෙන් යුධ අවි බවට පරිවර්තනය වෙමින් පවතින බවයි.
1. තාක්ෂණික ද්විත්ව භාවිතය සහ සදාචාරාත්මක පරස්පරතාව
ඕනෑම විද්යාත්මක සොයාගැනීමක් මෙන්ම AI තාක්ෂණය ද 'ද්විත්ව භාවිත' (Dual-use) ලක්ෂණයෙන් යුක්තය. පිළිකා රෝග විනිශ්චය සඳහා යොදාගන්නා ඇල්ගොරිතමයකටම, යුධ පිටියක ඉලක්ක හඳුනාගැනීමේ හැකියාව ද පවතී. මෙහි ඇති බරපතළම ගැටලුව වන්නේ, තාක්ෂණය නිර්මාණය කළ සමාගම්වල "මානුෂීය ප්රතිපත්ති" සහ රජයන්හි "ආරක්ෂක අවශ්යතා" අතර පවතින ගැටුමයි. මානුෂීය අරමුණු වෙනුවෙන් කැපවුණු තාක්ෂණික ශිල්පියෙකු ලියන කේතයක් (Code), අවසානයේ මිනිස් ජීවිත විනාශ කරන මෙහෙයුමක කොටසක් වීම බරපතළ සදාචාරාත්මක කඩාවැටීමකි.
2. බලවත් ජාතීන් සහ AI අවි තරඟය (The AI Arms Race)
න්යෂ්ටික අවි තරඟය මෙන්ම, වර්තමානයේ ලෝක බලවතුන් අතර රහසිගත AI අවි තරඟයක් නිර්මාණය වී ඇත. ජාත්යන්තර සම්මුතීන් කොතෙක් තිබුණද, තමන්ගේ ජාතික ආරක්ෂාව හෝ දේශපාලන වාසිය වෙනුවෙන් මේවා නොසලකා හැරීමට බලවත් රටවල් පෙළඹෙයි. රජයන් විසින් පනවනු ලබන නීති පවා එම රජයන්හිම ආරක්ෂක අංශ විසින් ප්රායෝගික අවශ්යතා මත උල්ලංඝනය කරන ආකාරය අපට දැකගත හැකිය. මෙහි ඇති භයානකම තත්ත්වය වන්නේ, මිනිස් පාලනයෙන් තොර "ස්වයංක්රීය මාරාන්තික අවි" (Lethal Autonomous Weapons) බිහිවීමේ අවදානමයි.
3. තාක්ෂණික ශිල්පීන්ගේ කාර්යභාරය සහ 'ආරක්ෂිත වැටකඩොලු'
තාක්ෂණය නිර්මාණය කරන පුද්ගලයාට එය පාලනය කිරීමේ සුවිශේෂී බලයක් ඇත. තාක්ෂණික ශිල්පීන්ට තම නිර්මාණ තුළම සදාචාරාත්මක සීමාවන් (Safety Alignment) පැනවිය හැකිය. විනාශකාරී හෝ අමානුෂීය නියෝග පිළිපැදීම ප්රතික්ෂේප කරන ලෙස AI පද්ධති පුහුණු කිරීම (Hard-coding ethics) මගින් යම් මට්ටමක පාලනයක් ලබාගත හැකිය. එසේම, ලොව පුරා තාක්ෂණික ශිල්පීන් එකාවන්ව තම නිර්මාණ යුද්ධයට යොදා ගැනීමට එරෙහිව නැගී සිටින්නේ නම්, බලවත් ජාතීන්ට පවා තම ගමන අඩාල කිරීමට සිදුවනු ඇත.
4. ප්රජාතන්ත්රවාදී පාලනයක අවශ්යතාවය
න්යෂ්ටික අවි පාලනය සඳහා 'International Atomic Energy Agency' (IAEA) වැනි සංවිධානයක් පවතිනවා සේම, AI තාක්ෂණය නියාමනය සඳහා ද ස්වාධීන ජාත්යන්තර අධිකාරියක අවශ්යතාව අද දැඩිව පවතී. මෙම සංවිධානයේ බලය රටවල් කිහිපයකට පමණක් සීමා වූ 'නිෂේධ බලය' සහිත පද්ධතියක් නොවිය යුතුය. ශ්රී ලංකාව වැනි සංවර්ධනය වෙමින් පවතින රටවල් පවා AI නිර්මාණය කිරීමේ විභවයක් සහිත බැවින්, මෙහි පාලනය 'තාක්ෂණික ප්රජාතන්ත්රවාදයක්' මත පදනම් විය යුතුය.
5. අපට කළ හැක්කේ කුමක්ද?
සාමාන්ය ජනතාව ලෙස අපට තාක්ෂණිකව බලපෑම් කළ නොහැකි වුවත්, "ලෝක ජනමතය" ගොඩනැගීමට අපට හැකියාව ඇත. තාක්ෂණය දේශපාලන අවියක් බවට පත්වන ආකාරය ගැන දැනුවත් වීමත්, සදාචාරාත්මක AI භාවිතයක් ඉල්ලා හඬ නැගීමත් අත්යවශ්ය වේ. බලවත් ජාතීන් තම වාසිය වෙනුවෙන් තාක්ෂණය යොදා ගත්තද, ලෝකවාසී ජනතාවගේ සාමූහික විරෝධය හමුවේ ඔවුන්ට යම් සීමාවන් පැනවීමට සිදුවනු ඇත.
නිගමනය
කෘත්රිම බුද්ධිය යනු මනුෂ්ය වර්ගයාගේ අවසානය නොව, නව යුගයක ආරම්භය විය යුතුය. එය විනාශකාරී අවියක් වෙනවාද, නැතහොත් මානුෂීය මෙවලමක් වෙනවාද යන්න තීරණය වන්නේ බලවත් ජාතීන්ගේ දේශපාලන අවශ්යතා මත නොව, අප සියලු දෙනා ගොඩනගන සදාචාරාත්මක එකඟතාවය මතය. තාක්ෂණය දියුණු වන වේගයටම මිනිස් හදවතේ සහකම්පනය සහ ප්රඥාව දියුණු කරගැනීම අප හමුවේ ඇති ලොකුම අභියෝගයයි.







