Potencial de transformação da IA é elevado
À medida que prolifera o uso de tecnologias relacionadas com IA, rapidamente se ultrapassam paradigmas tradicionais de governo organizacional e controlos que norteiam o seu uso. Os reguladores externos têm muita dificuldade em acompanhar a mudança e as empresas debatem-se com necessidades crescentes de demonstrar que estão dotadas de controlos adequados e transparentes, que podem evoluir tão rapidamente quanto a própria tecnologia. É sabido que sem uma governação e referenciais éticos robustos, existem sérios riscos operacionais na utilização de IA. Os sistemas e bases de dados podem falhar, ser deliberada ou acidentalmente corrompidos e, até, adoptar preconceito humano. Estas falhas têm ramificações profundas no que respeita a segurança, processo de tomada de decisão e sua credibilidade, podendo levar a disputas e litigância, perdas financeiras e acrescido escrutínio regulatório. No seio das organizações as lideranças necessitam confiar que os seus sistemas de IA estão a funcionar fiavelmente na forma pretendida, bem como confiar nos dados usados. Contudo, esta continua a ser uma área de preocupação. Efectivamente, numa pesquisa recente da EY, cerca de metade (48%) dos inquiridos referiram a falta de confiança na qualidade e fiabilidade dos dados como o principal desafio para a adopção de IA de forma mais abrangente nas suas organizações. Simultaneamente, as organizações necessitam também de construir as bases de confiança com stakeholders externos. Por exemplo, clientes, fornecedores, parceiros necessitam de ter confiança na IA da organização, pois necessitam de saber quando estão a interagir com a IA, que tipo de dados estão a ser usados e com que propósito. Adicionalmente, querem garantias que os sistemas de IA não recolhem, retêm ou divulgam informação confidencial sem o seu consentimento explícito e informado. Quando duvidem do propósito, integridade e segurança das tecnologias, ficarão relutantes (e em última instância recusarão) partilhar os dados em que assenta a inovação de amanhã. Para serem aceites pelos utilizadores, tanto internamente como externamente, os sistemas de IA devem ser compreensíveis, o que significa que os seus referenciais de decisão podem ser explicados e validados. Devem também ser robustamente seguros, mesmo perante as ameaças em contínua evolução. Face ao exposto, é cada vez mais nítido que falhas na adopção de referenciais éticos de governação que gerem confiança na IA, irão limitar a capacidade das organizações em colher o potencial destas tecnologias para sustentar o seu crescimento futuro. Daniel Guerreiro, Partner Ey, Assurance
JLo do lado errado da história