Inte­li­gên­cia Arti­fi­ci­al
A rea­li­da­de e os desa­fi­os da IA
Ape­sar de gerar inú­me­ras opor­tu­ni­da­des para a expe­ri­ên­cia do cli­en­te, essa tec­no­lo­gia exi­ge cui­da­dos das empre­sas inclu­si­ve no cam­po éti­co
Por Melis­sa Lulio

É nor­mal, mes­mo em 2020, que os con­su­mi­do­res ain­da per­ce­bam a Inte­li­gên­cia Arti­fi­ci­al (IA) como algo dis­tan­te da rea­li­da­de. Ape­sar dis­so, de acor­do com Ale­xan­dre Resen­de, dire­tor de Tec­no­lo­gia da Infor­ma­ção de empre­sa asso­ci­a­da à Asso­ci­a­ção Bra­si­lei­ra de Teles­ser­vi­ços (ABT), a IA está em tudo – ou pelo menos em mais ser­vi­ços do que ima­gi­na­mos.

Como ele con­ta, nas empre­sas em geral, ela é bas­tan­te usa­da para ampli­ar a auto­ma­ção de tare­fas con­si­de­ra­das repe­ti­ti­vas, ou seja, para per­mi­tir que o cola­bo­ra­dor se ocu­pe com fun­ções mais inte­lec­tu­ais. No setor em que ele atua, con­tu­do, além des­se uso mais cor­ri­quei­ro, a tec­no­lo­gia aju­da tam­bém a com­pre­en­der as neces­si­da­des do con­su­mi­dor.

His­to­ri­ca­men­te, o pri­mei­ro pas­so do autos­ser­vi­ço no aten­di­men­to ao cli­en­te foi a Uni­da­de de Res­pos­ta Audí­vel, a URA. Duran­te mui­tos anos, ela foi iro­ni­za­da den­tro e fora do ambi­en­te do aten­di­men­to, jus­ta­men­te pela sua recor­ren­te inca­pa­ci­da­de cog­ni­ti­va. 

Com a che­ga­da da IA, con­tu­do, a capa­ci­da­de de pro­ces­sa­men­to de lin­gua­gem natu­ral aumen­tou e, ago­ra, a URA pode real­men­te enten­der o que o con­su­mi­dor diz, indo além da iden­ti­fi­ca­ção de pala­vras espe­cí­fi­cas, reco­nhe­cen­do for­mas vari­a­das de expres­são. “Quan­do come­ça­ram as pri­mei­ras inter­pre­ta­ções na URA, ela dava algu­mas opções, pois a tec­no­lo­gia sim­ples­men­te tra­du­zia a voz para tex­to e a ana­li­sa­va de acor­do com isso”, expli­ca. “Hoje, o con­su­mi­dor pode falar como qui­ser.” 

O uso no aten­di­men­to

O uso no tele­fo­ne­ma apoi­a­do pela URA, porém, é um exem­plo de um dos usos mais sim­ples de IA. Resen­de expli­ca que essa tec­no­lo­gia tor­nou mui­to mais poten­te a aná­li­se de dados e, como con­sequên­cia, via­bi­li­zou o apri­mo­ra­men­to do rela­ci­o­na­men­to. “O aten­di­men­to se tor­nou mais ágil para o con­su­mi­dor, é pos­sí­vel obter solu­ções logo na pri­mei­ra cha­ma­da e dei­xa de ser pre­ci­so envol­ver vári­as áre­as”, diz.Para o cola­bo­ra­dor, por sua vez, o pro­ces­so de aten­di­men­to tam­bém se tor­na mais ágil, afi­nal, o que era fei­to de manei­ra manu­al ou repe­ti­ti­va é auto­ma­ti­za­do e, enfim, as habi­li­da­des huma­nas podem ser, de fato, explo­ra­das. 

revista-consumidor-moderno-inteligencia-artificial-alexandre-rezende-ed256
“Quan­do come­ça­ram as pri­mei­ras inter­pre­ta­ções na URA, ela dava algu­mas opções, pois a tec­no­lo­gia sim­ples­men­te tra­du­zia a voz para tex­to e a ana­li­sa­va de acor­do com isso.”
Ale­xan­dre Resen­de,
dire­tor de Tec­no­lo­gia da
Infor­ma­ção de empre­sa
asso­ci­a­da à (ABT)

Desa­fi­os

Ape­sar de todas as van­ta­gens que a IA traz, há tam­bém obs­tá­cu­los que os negó­ci­os pre­ci­sam supe­rar para uti­li­zar essa tec­no­lo­gia de manei­ra ple­na. Resen­de citou dois deles: a pri­va­ci­da­de e a éti­ca. 

1. Ges­tão da pri­va­ci­da­de

Resen­de apon­ta que, para deter­mi­na­dos seto­res, como o de Ban­dei­ras de Car­tões de Cré­di­to, a pre­o­cu­pa­ção com a segu­ran­ça e os dados não é uma novi­da­de: ele foi pio­nei­ro ao cri­ar o PCI Secu­rity Stan­dards Coun­cil, um con­jun­to de regras que pro­te­gem esta­be­le­ci­men­tos e con­su­mi­do­res de frau­des de car­tão de cré­di­to. Con­tu­do, a cri­a­ção da Lei Geral de Pro­te­ção de Dados (LGPD) levou essa pre­o­cu­pa­ção para outros seg­men­tos e, além dis­so, deu auto­no­mia ao cli­en­te para que ele deci­da o que deve­rá ser fei­to com os seus dados. 

2. Éti­ca

Ain­da há quem creia que IAs são neu­tras em ter­mos de com­por­ta­men­to e opi­nião. Mas, Resen­de escla­re­ce que, por ser desen­vol­vi­da e pro­gra­ma­da por pes­so­as, é natu­ral que essa tec­no­lo­gia car­re­gue alguns vie­ses. É des­sa pers­pec­ti­va que sur­ge a dis­cus­são sobre a éti­ca: como edu­car uma IA para que ela res­pei­te a todos? Mais do que isso, como embu­ti-la em tec­no­lo­gi­as como car­ros autô­no­mos e ensi­ná-la a tomar a deci­são cor­re­ta em uma situ­a­ção de peri­go? No Bra­sil, essa dis­cus­são ain­da está come­çan­do. Fora daqui, já está um tan­to avan­ça­da.