Kur njerëzit ndodhen në një krizë personale, ka raste që ata drejtohen tek një burim jo personal i mbështetjes siç është aplikacioni i madh i kërkimit Google.
Nga kompania në fjalë, çdo ditë bënë kërkime për tema si vetëvrasja, sulmet seksuale dhe abuzimi në familje.
Sipas kompanisë ata dëshirojnë të bëjnë diçka më shumë për t’i drejtuar njerëzit drejt informacioneve që u nevojiten.
Teknikat e reja të inteligjencës artificiale që analizojnë më mirë kompleksitetin e gjuhës, janë duke e ndihmuar kompaninë për këtë.
Duke shqyrtuar gjendjen në mënyrë të veçantë, Google po integron modelin e tij më të fundit të mësimit të makinerive, MUM, në motorin e tij të kërkimit për të zbuluar më gjerësisht kërkimet personale të krizave.
Kompania e ka zbuluar MUM-in vitin e kaluar, për portalin amerikan, The Verge ka deklaruar se që nga zbulimi i saj, e ka përdorur atë për të shtuar kërkimin me veçori që përpiqen t’u përgjigjen pyetjeve që lidhen me kërkimin origjinal.
Anne Merritt, menaxhere e produkteve të Google-it për shëndetin dhe cilësinë e informacionit, ka thënë se MUM do të jetë në gjendje të dallojë pyetjet e kërkimit që lidhen me situata të vështira personale që mjetet e mëparshme të kërkimit nuk mundën.
“MUM është në gjendje të na ndihmojë të kuptojmë pyetje më të gjata ose më komplekse si ”pse më sulmoi ai kur thashë se nuk e dua atë”. Mund të jetë e qartë për njerëzit se kjo pyetje ka të bëjë me dhunën në familje, por pyetje të gjata në gjuhën natyrore si këto janë të vështira për t’u kuptuar nga sistemet tona pa AI të avancuar”, ka thënë ajo për The Verge.
Gjiathashtu ajo tha se kur Google zbulon kërkime të tilla krizash, ai përgjigjet me një kuti informacioni që u thotë përdoruesve “Ndihma është e disponueshme”, zakonisht e shoqëruar nga një numër telefoni ose faqe interneti për një organizatë bamirësie për shëndetin mendor si Samaritanët.
Përveç përdorimit të MUM-it, Google, po përdor gjithashtu një model më të vjetër të gjuhës së inteligjencës artificiale. Përfaqësimet e koduesit dydrejtues nga Transformuesit (BERT), për të identifikuar më mirë kërkimet që shfletojnë përmbajtje të qartë si pornografia.
Duke përdorur BERT, Google ka “reduktuar rezultatet tronditëse të papritura me 30%” nga viti në vit. Megjithatë, kompania nuk ka qenë në gjendje të ndante shifra absolute se sa “rezultate tronditëse” hasin mesatarisht përdoruesit e saj.
Pra, Google dëshiron t’ju tregojë se po e ndihmon kompaninë të përmirësojë produktet e saj të kërkimit, veçanërisht në një kohë kur ekziston një narrativë ndërtimore se “Kërkimi në Google po vdes”.
Por integrimi i kësaj teknologjie vjen me anët e saj negative.
Ekspertët e degës së kërkimit dhe zhvillimit të inteligjencës artificiale të Google (AI), paralajmërojnë se përdorimi në rritje i modeleve të gjuhëve të mësimit të makinerive nga Google mund të shfaqë probleme të reja për kompaninë, si futja e paragjykimeve dhe dezinformatave në rezultatet e kërkimit.
Sistemet e AI janë gjithashtu të errëta, duke u ofruar inxhinierëve njohuri të kufizuara se si ata arrijnë në përfundime të caktuara.
Google është pyetur nga The Verge se si i verifikon paraprakisht termat e kërkimit të identifikuara nga MUM që lidhen me kriza personale.
Por, përfaqësuesit e kompanisë nuk kanë qenë në gjendje të përgjigjen.