U24 | PÓS 5 - Politécnica - DCP 1

What is U24 | PÓS 5 - Politécnica - DCP 1?

Múltiplas Facetas de Inteligência Artificial e Machine Learning

Speaker 1:

Pósgraduação unicinos. Olá, bemvindos ao podcast da disciplina múltiplas facetas de inteligência artificial e machine learning sou o professor Gabriel Ramos e no episódio de hoje vamos falar sobre o boom da inteligência artificial e suas implicações éticas então o primeiro ponto que eu gostaria de trazer aqui é breve contexto né lembrando que a gente está falando de inteligência artificial que é basicamente uma área do conhecimento dentro da computação onde o objetivo é desenvolver agentes inteligentes que vão maximizar alguma medida de desempenho que pode ser atrelada ou não a forma como nós humanos faríamos uma tarefa mas a gente viu também que nem sempre esse é o caso né muitas vezes a gente vai querer de fato encontrar comportamento que seja racional né e isso vai ser algo melhor do que nós mesmos humanos fariam Então dentro dessa perspectiva a inteligência artificial evoluiu muito sobretudo nos últimos anos, embora lá nos anos quarenta ela tenha começado a ser desenhada e pensada de dois mil e dez pra cá a gente viu realmente uma revolução que é quando a essa área passou a produzir resultados não só dentro da computação originalmente no no mundo da indústria né do ponto de vista de empresas e tal, mas direto pra nós né os humanos da cadeia né o os membros da sociedade então é esse é contexto importante né a rápida evolução nos últimos anos segundo ponto é os riscos inerentes da adoção de qualquer nova tecnologia é uma coisa que a gente vai ter que discutir aqui também tá então esse é o objetivo do podcast de hoje então pra começar vamos tentar lembrar como que a inteligência artificial conseguiu avançar tão rápido nos últimos anos antes de mais nada é importante a gente lembrar a inteligência artificial como é uma área grande ela tem várias subáreas a área que gerou esse aumento de de atenção né essa essa revolução recentemente é uma das subáreas que a gente chama de aprendizado de máquina, em particular tipo de abordagem que a gente chama de aprendizado profundo, tá que conseguiu impulsionar esse rápido desenvolvimento.

Speaker 1:

Como que surgiu o aprendizado profundo? Nada mais do que a evolução né, esse nada mais é do que a evolução da área ao longo das últimas décadas, sustentadas por sustentada por uma série de coisas que foram acontecendo simultaneamente tá, a gente pode destacar aqui três pilares, deles são os dados, os dados há muito tempo já são coletados e utilizados pra essa finalidade, mas conforme a a área foi conhecendo melhor a importância dele deles né, e a forma como a gente pode armazenar e obter principalmente eles, uma série de boas práticas foram sendo mais bem compreendidas e mais dados foram sendo então coletados e disponibilizados tá então a gente só tá falando aqui só de quantidade que é o que a maioria das pessoas fala mas sobretudo de qualidade de nada adianta eu ter muitos dados se eles não representam corretamente o problema que eu quero aprender tá? Então esse é deles. Segundo pilar, é a parte de algoritmos em si, tá? Então os algoritmos que a gente vê hoje fazendo resolvendo tarefas complexas de visão computacional por exemplo, ou problemas de linguagem, como a gente vê nos, nesses LMs né, são técnicas que já existem há várias décadas na verdade, né, dentro da parte de imagens, as redes convolucionais já já tinham aplicações bemsucedidas na década de noventa, só que, o que que aconteceu?

Speaker 1:

De lá pra cá, a área, né o pessoal da academia né então a parte científica da coisa continua fazendo seu trabalho empregando método científico utilizando às vezes melhoria incrementais às vezes melhorias mais disruptivas que foram se apoiando umas nas outras pra que a gente conseguisse entregar algoritmos cada vez mais complexos robustos né e com alto poder de abstração essa é o terceiro segundo pilar E o terceiro pilar, é o poder computacional, que, enfim foi foi crescendo né de forma substancial ao longo do tempo também, permitindo que esses algoritmos complexos conseguissem rodar, eficientemente, por tempo razoavelmente pequeno né, a praça grande quantidade de dados que essa estava sendo disponibilizado. Então essas três coisas em conjunto, sustentam a área de aprendizagem a área não abordagem né de aprendizado profundo também conhecido como deepler e a partir daí que a gente viu essa explosão de novas coisas acontecendo tá então o que que a gente viu o começou a observar de lá pra casa nos dois mil e dez pra cá mais precisamente né aumento expressivo na quantidade de publicações na área então comparado com outras áreas a inteligência artificial teve crescimento comparado com dados lá de noventa e seis em torno de oito a dez vezes a quantidade de publicações anuais a quantidade de artigo submetidos mesmo não feitos para grandes conferências da área, tá então abrindo parênteses, dentro da inteligência artificial da computação geral na verdade, as conferências têm peso tão grande quanto as revistas né, e são frequentemente mais difíceis de ter artigo aceites lá fecha parênteses então o número de submissões pra essas grandes conferências cresceu de forma considerável né as maiores conferências têm hoje chega a passar de dez mil submissões por ano dez mil artigos novos por anos né e a gente vê também que o número de pessoas participando dessas conferência é cada vez maior né então as conferências que como o Neurips que chegam a ter mais de de de dez quinze mil pessoas participando simultaneamente presencial né outro número importante diz respeito a startups né então enfim dados mostram crescimento bem acentuado né dependendo da perspectiva pode ser considerado até crescimento exponencial do número de startups que utilizam inteligência artificial e vale destacar que nem sempre elas de fato utilizam a inteligência artificial por si só já vende muito só pelo nome né e dados ali de dois mil e dezenove mostram que quarenta por cento das startups europeias ativas não utilizava inteligência artificial embora alegação usar, e a gente vê também as grandes empresas nas bic players aí que estão revolucionando e produzindo conhecimento científico numa velocidade até maior que as grandes universidades, se incluem por exemplo o 0 Google através do DeepMine, A0A Meta né através do Meta Researge a Nvidia e outras do jeito tá?

Speaker 1:

E tudo isso permitiu então que a gente passasse né nós enquanto área passássemos a entregar valor pra sociedade né então a gente vê hoje diversas abordagens sendo suportadas pela inteligência artificial como a saúde né cada vez mais eficiente transporte a mobilidade né, que cada vez também se torna mais eficiente, mais de mais fácil uso, mais acessível pra população, o uso e produção de energia elétrica, a a forma como a educação fornecida pras pessoas, a forma que a gente tem hoje em dia de lidar com dinheiro, com finanças cada vez mais eficientemente, e até mesmo, né, porque não, com entretenimento, que cada vez mais, emprega tecnologias associadas à inteligência artificial pra gerar valor pros seus usuários tá? Então vamos falar pouquinho mais sobre alguns desses impactos positivos né que é legal a gente discutir então a inteligência artificial ela tem se mostrado útil não só pra como muitos veem né pra substituir pessoas né então tirar o emprego de pessoas tá? Não concordo muito com essa visão mas a gente já fala logo mais sobre isso mas sim pra automatizar tarefas repetitivas tarefas que expõe os trabalhadores humanos hoje a problemas saúde muitas vezes de longo prazo né melhorar na questão de diagnósticos médicos cada vez mais precisos, ter a medicina individualizada né, melhorar a eficiência de diversas tarefas em diversos setores né, então permitir que a gente faça hoje coisas que a gente não conseguia fazer, muitos devem já teve vivenciado né o surgimento de abordagens baseadas em modelos de linguagem para resolver algumas tarefas de forma muito rápida até então não era possível né modelos de linguagem né pra quem não não lembra né a gente tem exemplo aí por exemplo o chat GPT que utilizam modelo de linguagem pra resolver esse tipo de de problema também tá mas falando de alguns exemplos em particular dentro da saúde é que eu vou falar até de alguns trabalhos do meu grupo tá mas naturalmente uma série de outras abordagens se se aplicam também dentro da saúde hoje a gente trabalha com ferramentas ou técnicas pra ajudar os médicos, os profissionais da saúde, no diagnóstico de de doenças por exemplo.

Speaker 1:

Em particular a gente trabalha muito com exame de imagem, tá? Então exemplo é dentro do do câncer de mama, tá? Então câncer de mama às vezes a paciente precisa passar por processo de de remoção de algum tecido às vezes é de parte da mama e tudo mais. Uma tarefa importante ali depois de fazer a extração desse tecido é verificar se não ficou nenhum resquício da parte da da das células tumorais né? Então esse processo é feito através de processo laboratorial chamado histopatologia, onde aquele tecido é solidificado e a gente então, extrai fatias muito finas desse tecido, pra verificar se existem células indesejadas indesejáveis ali.

Speaker 1:

Nesse processo, patologista vai manualmente olhar aquela imagem ampliar ela né, e ver no microscópio né então essa imagem ampliada pra identificar essas células, e se encontrar essas células no tecido vai enfim determinar o diagnóstico daquela querer saber essa é uma tarefa que é repetitiva né é pediosa né envolve médico patologista olhar muitas partes da imagem né e a gente consegue utilizar redes convolucionais pra resolver essa tarefa tá então a gente consegue identificar célula por célula e diferenciar células saudáveis né de tumores né então células que seriam carcinoma né alguma coisa do gênero EEA partir disso a gente consegue então facilitar a tarefa do médico né outro exemplo a gente tem uma abordagem onde a gente consegue dentro do contexto de cardiologia a partir de de exame de agiografia, que é exame de raiox onde a gente consegue verificar a as artérias né, a gente consegue detectar estenoses, estenoses são estreitamentos das paredes da artéria né e com isso a gente consegue então ver onde tem alguma obstrução pra fazer então alguma intervenção ali ele está algum problema maior tá então esses são exemplos de abordagens onde a gente apoia os médicos a fazerem essa tarefa a gente não está substituído antes tá outra situação diferente né só pra mudar pouco contexto dentro da mobilidade urbana, tem trabalho nosso, que a gente analisando né padrões de viagens que as pessoas fazem diariamente né, que a gente chama de né que é basicamente indicada pro trabalho, então tendo mapeamento né dessas origens e destinos dentro de uma cidade a gente consegue fazer a gente pode alocação de rotas quer dizer que rota que cada pessoa tem que pegar a gente conseguiu fazer então construir algoritmo que, leve em consideração que as pessoas enfim são egoístas né então cada pessoa vai escolher a ação que melhor lhe convida, e posteriormente executar essa ação né então iniciar a sua rota, Isso, gera problemas, isso gera congestionamento, tá?

Speaker 1:

Então o que a gente fez foi criar uma abordagem que utilizam mecanismo de incentivo baseado em precificação, que incentiva as pessoas que estão com menos pressa, a pegarem rotas pouco mais lentas, mas ganhar alguma incentivo em troca. Então com isso, a gente consegue utilizar aprendizado por reforço, tipo de de aprendizado de máquina, onde, os agentes aprendem por tentativa e erro, tá? Então a gente simula isso, e consegue garantir que os motoristas vão pegar as rotas que vão melhorar o congestionamento como todo ou seja reduzir ao máximo tá então a gente consegue provar teoricamente que isso é possível e depois é que poderia ser utilizado por exemplo aplicativo de mobilidade Waze da vida tá poderia ser possível e último caso dentro de energia né onde a gente consegue utilizar mecanismos de scadlin que a gente chama né que seria basicamente de agendamento de uso de dispositivos pra reduzir por exemplo picos de consumo né isso acontece bastante na Europa né onde as pessoas ligam aquecedores quando está frio isso gera uma carga muito alta né então imagina que a gente pode programar os dispositivos pra ligarem antes e daí quando chega na na quando o seu dono mexe proprietário chega em casa ele pode desligar porque a casa já vai estar quentinha e não vai usar então a energia quando está todo mundo querendo utilizar também então essas são algumas possibilidades tá algumas delas já gerando valor direto pra sociedade outras ainda né de forma mais incipiente mas que permitem né gerar valor direto pra sociedade através da melhoria né de do uso mais eficiente de algumas infraestruturas que a gente já tem hoje tá bem mas falado de impactos positivos a gente tem que falar também alguns dos desafios né a gente não pode deixar de mencionar eles então hoje existem várias preocupações, tá?

Speaker 1:

Eu posso mencionar que algumas delas, uma delas que eu falei desemprego tecnológico, né? Então muitas pessoas que acabam, né, tendo suas tarefas, às vezes são tarefas mais repetitivas, outras que podem ser automatizadas, tendo seu emprego substituído por por uma máquina tá? Isso é uma coisa que acontece, tá? Pode acontecer, vai acontecer, mas a gente não tem que ver isso como sendo AAA pessoa deixando de ganhar seu meia ponto. Na verdade, a gente tem que junto dessa substituição, ter também a criação de mecanismo pra mecanismos pra recolocar essas pessoas em outras posições melhores.

Speaker 1:

A tendência no longo prazo não é a gente simplesmente ficar sem emprego, mas sim é a gente não precisar fazer algumas coisas e poder fazer outras que nos gerem o maior retorno não só financeiro mas também pessoal né? Outro problema algoritmos né como esses de de rede baseado em redes orais mencionei eles utilizam dados em grandes volumes né pra poder permitir mapeamento de uma entrada pra saída conforme a gente quer o problema é que se os dados não forem de boa qualidade e não representarem corretamente fenômeno que a gente quer, a gente vai ver sim alguns problemas acontecendo, né? Exemplo bem polêmico é o de reconhecimento facial em larga escala, inclusive várias, já aconteceu muitas vezes né de dados enviesado serem utilizados então por exemplo que têm predominantemente pessoas brancas pessoas do sexo masculino né e no momento que acontece o treinamento algoritmo ele vai aprender aqueles padrões ali tudo que diz toda aqueles padrões algoritmo talvez não entenda então isso não é culpa do algoritmo é culpa dos responsáveis ali que fizeram a geração do conjunto de dados tá então esse tipo de problema faz por exemplo que reconhecimento facial que as pessoas negras sejam menos reconhecidas do que as brancas tá então por isso que vários problemas já aconteceram em função disso então tem que ter cuidado os dados têm que representar corretamente o que a gente quer aprender tá é outro problema importante questão para de privacidade você a gente está utilizando os dados das pessoas, a gente tem que ter mecanismos pra proteger os direitos dessas pessoas ali dentro, tá?

Speaker 1:

E de fato, isso, né, de tudo que está associado a dados, passa hoje por uma série de discussões, bastante acaloradas até, nos últimos anos na verdade né, que levou à criação de diversos mecanismos, nacionais, internacionais, e até empresariais, pra lidar né com esses riscos tá então vários países começam lá pelo Canadá dois mil e dezessete se eu não me engano que começaram com com a criação de plano né de uma estratégia nacional de inteligência artificial que visava fomentar o uso né, o desenvolvimento de tecnologias para a inteligência artificial, né, então apoiar muito a academia, a universidade, nessa tarefa, e as empresas né, e sendo incentivadas a fazerem essas parcerias e conseguir fazer transferência de tecnologia, mas junto desse dessa estratégia, aí de vários outros países que vieram depois, a gente viu a criação de regulamentações, cuidando com o os dados, propriedade deles sendo mantida próxima aos usuários né, e dando aos usuários o poder de de dizer o que poderia ser feito ou não com seus dados, então isso cada vez mais está sendo feito, aí te vê também algoritmos cada vez mais éticos né então, lá no no início da concepção de algoritmo, uma série de mecanismos sendo criados para permitir transparência, auditabilidade, e uma série de outras coisas, E também uma outra coisa que tem contribuído muito pra ajudar a mitigar esses desafios esses riscos, é a educação pública, porque de nada a gente ter mecanismos governamentais ou as empresas têm essas mecanismos pra proteger as pessoas, se as pessoas não sabem o impacto que todas essas coisas podem ter na sua vida, então cada vez mais a gente está vendo a educação pública sendo algo levado a sério e entregando então para as pessoas as ferramentas necessárias pra elas compreenderem o uso dessas novas tecnologias, e também poderem se proteger tá, então é isso que eu tinha pra falar no podcast de hoje, a gente falou então sobre uma série de itens interessantes né, como o avanço da inteligência artificial, os seus impactos positivos e também os riscos inerentes desse tipo de abordagem através dessa discussão eu espero que vocês busquem mais informações e tentem se inserir né exercer seu papel de cidadãos pra contribuir pra uma sociedade mais justa mais igualitária utilizar na inteligência artificial como uma ferramenta realmente útil não deixem de informar mais também através dos outros hubs web visual web leitura e os materiais que a gente deixou lá de referência pra vocês Está certo?

Speaker 1:

Espero que tenham gostado, bons estudos e até a próxima. Pósgraduação UNICINA.