I Jornada de Comunicação, Semiótica e Big Data

SemioData 2018

Faça sua inscrição
Sexta, 30 de novembro de 2018 Das 08:00 às 19:00
São Paulo, SP Auditório Paulo Emílio (Segundo andar - Escola de Comunicações e Artes - Universidade de São Paulo)

Sobre o Evento

SemioData 2018 tem como objetivo reunir pesquisadores, estudantes interessados em compreender de que maneira a utilização de grandes bases de dados digitalizados impactam os processos de percepção, representação e comunicação nas sociedades cada vez mais dependentes das formas de registro, armazenamento, recuperação e processamento por meio de computadores e dispositivos associados. O evento é voltado pra as áreas de comunicação, filosofia, artes, linguística, ciências sociais, computação, engenharia e ciências cognitivas.

SEMIODATA AO VIVO NO IPTV USP

Palestrantes

  • Maria Eunice Quilici Gonzalez
  • Itala Loffredo D´Ottaviano

Programação

08h00 Fala de abertura da Vice-Diretora da ECA Brasilina Passarelli Abertura
Local: Auditório Paulo Emílio

Abertura a Afixação dos Pôsteres (hall do elevador do segundo andar)

Autores de pôsteres selecionados devem se apresentar para a equipe do evento, que indicará o local e ajudará na afixação.

08h30 - Maria Eunice Quilici Gonzalez Maria Eunice Quilici Gonzalez (UNESP, FAPESP, CNPq) Palestra
Maria Eunice Quilici Gonzalez (UNESP, FAPESP, CNPq)
Local: Auditório Paulo Emílio (Primeiro Andar do Prédio Central da ECA)

Contribuições da Semiótica para a compreensão da dinâmica de formação de crença/opinião em tempos de Big Data

Apresentarei nesta palestra resultados parciais da pesquisa desenvolvida, em parceria com pesquisadores da UNESP, UFABC e USP, junto ao Projeto: Compreendendo a dinâmica da opinião e da linguagem utilizando Big Data. A seguinte questão guiará nossa reflexão: Que contribuições pode a Semiótica Peirceana oferecer para o estudo de possíveis consequências éticas do uso de recursos de Big Data no direcionamento da crença/opinião/ação humana? Inspirada nos métodos de fixação de crenças propostos por Peirce, argumentamos que recursos da semiótica informacional peirceana podem propiciar novidades promissoras na compreensão de disposições direcionadoras da crença/opinião/ação a elas subjacentes. Entendemos que a análise semiótica de correlações estabelecidas entre a massiva quantidade de dados de usuários das redes sociais pode auxiliar no entendimento de questões éticas decorrentes do direcionamento da dinâmica de formação de opinião na em tempos de Big Data.

09h30 Mesa 1 - Coordenação: Fernanda Farinelli (UNESP, FAPESP) Apresentação Oral
Local: Auditório Paulo Emílio

Dinâmica: autores têm até 20 minutos para apresentação oral, feitas sequencialmente e sem intervalo para perguntas. Ao final, 30 minutos para perguntas e debates com o público.

 

AUTORES: Marcia Pinheiro Ohlson (PPGCOM/USP, Jorge Abrão (PPGCOM/USP) and Vinicius Romanini (PPGCOM/USP, FAPESP)

TÍTULO: AS METÁFORAS QUE EXPLICAM – OU NÃO – O BIG DATA

Para explicar tanto conceitos complexos quanto abstratos, pesquisadores, acadêmicos, jornalistas e escritores, todos se valem de metáforas. Mais do que uma figura de linguagem, a metáfora tem papel fundamental na construção de significados.

O trabalho proposto irá se debruçar sobre as metáforas utilizadas em artigos científicos para explicar o conceito de Big Data e como elas colaboram para a construção deste objeto e seus predicados. Buscaremos o embasamento teórico na semiótica de Charles S. Peirce e na Teoria da Metáfora Conceitual de George Lakoff e Mark Johnson, pesquisadores em ciências cognitivas que entendem a metáfora como um processo cognitivo fundamental que nos permite compreender algo (domínio-alvo) a partir de um conceito já compreendido (domínio-fonte) (LAKOFF e JOHNSON, 2002 [1980][1]).

O verbo minerar, por exemplo, largamente utilizado para ilustrar a ação humana sobre as bases de dados, traz uma série de predicados da ação de mineração enquanto extração de substâncias minerais, permitindo que analisemos a construção das narrativas sobre o Big Data através destes paralelos.

Para a realização desta análise, iremos elencar diferentes formulações do conceito de Big Data, presentes em artigos de autores nacionais e internacionais. E, a partir das metáforas utilizadas para a compreensão do conceito, pretendemos apontar quais predicados que estas visões carregam e o que podemos aprender e apreender sobre o fenômeno a partir dos mesmos.


AUTORA: Renata Lima (CELACC/USP)

TÍTULO: Do livro de Maquiavel ao banco de dados de Manovich: a evolução das formas de hegemonia a partir dos suportes para a informação

O Prínncipe foi escrito por Nicolau Maquiavel, em 1532, como um guia de instruções para o governante exercer a liderança, a hegemonia e a soberania.

Nos anos 60 do século XX, Antonio Gramsci visitou a obra de Maquiavel e, partindo dela, propôs o conceito de “Moderno Príncipe”. Nele Gramsci propunha uma releitura da obra e apontava sobre as novas formas de hegemonia daquele momento, sobretudo a forma de atuação do partido político. Em 1999, Octavio Ianni desenvolveu a formulação do “Príncipe Eletrônico”, com foco na sociedade midiatizada pela comunicação de massa. Maíra Carneiro, em 2016, trouxe o “Príncipe Digital”, como uma variante do Príncipe de Ianni, iluminando a forma como, na era das redes digitais, estão estruturadas as categorias: poder, hegemonia e liderança, pilares de todos os modelos teóricos de príncipes existentes até então. A partir da perspectiva apontada por Carneiro, recorremos a Lev Manovich e seu entendimento sobre a relação de Banco de Dados e narrativas, para alcançarmos como essa conexão pode impactar nossa forma de compreensão e atuação no mundo, nos dias de hoje.

A intenção dessa pesquisa é, a partir da análise comparativa dessas obras, entender os fundamentos estruturantes e as hegemonias correlatas a cada sociedade mencionada e os conceitos sócio-políticos que as sustentam. Além de tentar identificar qual forma (ou formas) de comunicação era utilizada por cada príncipe e de que maneira a leitura e a linguagem podem impactar na absorção da informação.


AUTORA: Rebeka Figueiredo da Guarda (PPGCOM/USP)

TÍTULO: A construção de identidades digitais: os processos de significação e comunicação na era dos bancos de dados

A proposta desta comunicação oral é investigar de que maneira a computação ubíqua e a geração de grandes bases de dados digitalizados impactam a construção de perfis profissionais em redes digitais e os significados atribuídos a eles. A discussão será feita a partir de duas hipóteses: a) no ambiente digital, as representações de perfis profissionais são moldadas a partir de coleções de dados que não necessariamente exprimem a experiência sensível dos sujeitos; e b) embora essas representações partam de escolhas intencionais com vistas a atingir determinados propósitos, os donos desses perfis têm pouco controle sobre a geração de significados. Com base na Semiótica de Charles S. Peirce (2000), buscaremos compreender de que maneira as subjetividades emergem no meio digital, considerando: a) as mudanças trazidas pelo banco de dados como novo gênero da cultura (MANOVICH, 2001); b) o apagamento das fronteiras entre online e offline e a emergência das chamadas “infosfera” e “cultura proxy” (FLORIDI, 2014); e c) os agenciamentos promovidos por plataformas e algoritmos na internet (GILLESPIE, 2014; JUST & LATZER, 2016; PARISER, 2012). Ao longo de nosso percurso, partiremos da perspectiva semiótica da subjetividade humana, que indica que o sujeito é um ser histórico e fruto de um processo relacional, podendo ser considerado um signo, na medida em que é tanto resultado quanto agente da prática sígnica (COLAPIETRO, 2014). Nosso objetivo é apresentar uma breve reflexão sobre as mudanças nos processos de significação, representação e comunicação nas sociedades contemporâneas tendo em vista a complexificação dos processos comunicacionais gerada por tecnologias digitais que perpassam as comunicações em diferentes âmbitos da vida privada e da esfera pública.

11h00 Mesa 2 - Coordenação: Vivian Santana Paixão (PPGCOM/USP) Apresentação Oral
Local: Auditório Paulo Emilio

Dinâmica: autores têm até 20 minutos para apresentação oral, feitas sequencialmente e sem intervalo para perguntas. Ao final, 30 minutos para perguntas e debates com o público.

 

AUTORES: Ana Luiza Aguiar (GOPAI/USP) e Bernardo Santos (Anhembi Morumbi)

TÍTULO: REDES, SIGNOS E BOATOS: UM ESTUDO DA CONSTRUÇÃO DAS REDES DE FAKE NEWS A RESPEITO DE MARIELLE FRANCO

Este trabalho se propõe a realizar um estudo de caso que para analisar a circulação dos rumores que surgiram após o assassinato da vereadora do Rio de Janeiro Marielle Franco, através de múltiplas redes sociais: Whatsapp, Twitter e Facebook. Para obter o corpus de análise, foram coletados dados através de formulários online, pelo projeto Monitor do Debate Político no Meio Digital do Grupo de Pesquisa em Políticas Públicas e Acesso à Informação (GPoPai) da Universidade de São Paulo (USP). Estes dados foram analisados quantitativamente e qualitativamente procurando demonstrar a maneira como estas ferramentas foram usadas para uma produção de signos indiciais que visavam desencadear uma semiose dedutiva: foram elementos da criação em redes de uma narrativa falaciosa sobre a vítima para desacreditá-la. Estes materiais não somente usavam
textos, mas também imagens desconexas para induzir uma determinada linha de produção de sentido, se aproveitando de um paradigma de preconceitos. Aliando a natureza personalizada das redes e a escala da disseminação dos signos manipulados, nossos resultados apontam a que o viés de confirmação exerceu influência significativa na forma de propagação dos boatos nas redes sociais – um modelo que observamos ter se sido
utilizado também nas eleições para presidente do Brasil em outubro de 2018.


AUTOR: Fernando Figueiredo Strongren (PPGCOM/UnB)

TÍTULO: Fake news: um conceito indefinido

Esta comunicação tem como objetivo discutir os usos do termo fake news na pesquisa científica. Segundo o dicionário de língua inglesa Collins, a expressão fake news surge dentro do contexto das produções cômicas, especialmente com programas de televisão que simulavam telejornais para fazer comédia. Porém, por volta do ano 2005, a expressão começa a ganhar novo sentido, quando começa a ser utilizada para “notícias falsas que circulavam com conteúdo maldoso”. É neste segundo conceito que as fake news chegam ao centro do debate acadêmico e social em 2016, com a disseminação de notícias falsas durante a eleição presidencial estadunidense. Ainda segundo o dicionário britânico, nesse ano, o uso do termo fake news teve um crescimento de 365%. Apesar do amplo uso na imprensa de língua inglesa e até mesmo sua adoção sem tradução pela imprensa nacional, o uso do termo fake news tem sido disputado por diversos pesquisadores. A primeira crítica vem do contexto estadunidense, onde o presidente Donald Trump subverteu o significado do termo, passando a classificar como fake news notícias e meios de comunicação críticos ao seu governo. Por outro lado, um estudo feito por Tandoc, Zheng e Ling com 34 artigos publicados entre 2003 e 2017 identificou uma falta de consistência no uso do termo, identificando seis diferentes usos acadêmicos para fake news. Por fim, Wardle e Derakhshan afirmam que o termo fake news é inadequado para descrever um fenômeno complexo como a desordem informacional contemporânea, optando, assim pelos termos informação imprecisa (misinformation) e desinformação (disinformation). Em nossa comunicação, faremos uma revisão bibliográfica sobre a posição desses e de outros pesquisadores sobre o conceito de fake new e de seus usos em pesquisas científicas, principalmente da Comunicação. Concluímos nossa apresentação defendendo o uso do termo fake news, em língua inglesa, como uma forma de marcar o fenômeno contemporâneo que envolve a distribuição de notícias falsas pela internet.


AUTOR: Mario Finotti Silva (CENCIB)

TÍTULO: A RETÓRICA DO BIGDATA E SEUS EFEITOS INVISIVEIS

A proposta do presente artigo é propor uma reflexão acerca de como os Big Datas espalhados pelo mundo, gerando, multiplicando e distribuindo informações 24horas por dia pode exercer com segurança sua manipulação se basicamente toda a informação passa pela mão das pessoas. O que é vendido como sendo uma ferramenta de soluções corporativas, traz em seu bojo nuances que nem sempre pode ser distribuída ou sequer comentada. A linha de pensamento do tema proposto é a observação do modo como essa rede opera; São gerados diariamente, 2,5 quintilhões de bytes nas mais diversas ações diárias da sociedade, registros corporativos e principalmente em movimentações financeiras. Nesse momento os dados tornaram-se valiosos para as empresas e governos, que podem utilizá-los para conhecerem melhor seus clientes, cidadãos e, assim, entenderem seu comportamento. Neste cenário cada vez mais dinâmico, é preciso estar atento às mudanças de mercado; é o limiar incontestável entre o viver e o morrer no universo corporativo ou governamental. E é aqui que entra o segredo do Big Data e também é nesse ponto que mora o perigo quando as empresas ligadas à tecnologia fazem este exercício — com precisão; capturam dados para retornar em ofertas direcionadas ou o que gerar mais lucro ou informação útil. A violência invisível torna-se o pivô da infovigilancia nos Big Datas ao dizer que não afetar sua privacidade apesar das promessas de controle e segurança no manuseio das informações. Sabe-se que apesar de estarem compilados, criptografados e com várias camadas de segurança, não há como garantir sua volatilidade. O discurso mercadológico promovido está agregado à disponibilização dos dados ao defender que estarão na privacidade e garantido pelos clouds espalhados pelo mundo. Não há promessa de privacidade quando espontaneamente revelamos dados e informações a terceiros e, a efeito, todos no “cibermundo” são terceiros e todos os bancos de dados virtuais passíveis de serem “violentados”. As condições de privacidade são medidas por forças desiguais. Não há mais diferenciação entre homem e máquina. O caminho parece ser tortuoso e nublado, mas ao contrário da velocidade como evolui os sistemas, é bem definido, estabelecido e proporcionado pelo mercado que gera, dita as regras e manipula todo esse controle em favor de uma parcela diminuta da sociedade. O que compete aqui não é sugerir soluções e sim compreender com que ares de violência invisível os dados estarão expostos. O meio digital, que em tempos atrás fora categorizado por medo e suspeita, derruba esse conceito e faz com que a visibilidade e o modo de agir de seus usuários mude de postura com a dominação dos meios. Mas o que era a proposta inicial da aglutinação de dados mutatis mutandis adequa-se ao aparato.

12h30 Sessão de Pôsteres Apresentação Pôster
Local: Saguão do Segundo Andar do Prédio Central da ECA (ao lado do elevador)

Apresentação e discussão dos pôsteres selecionados, com a presença dos autores.

 

AUTOR: Ricardo Peraça Cavassane (UNESP)

TÍTULO: Seriam os Big Data capazes de prever o comportamento de Sistemas Complexos?

Os entusiastas dos Big Data defendem que modelos estatísticos que visam datificar a totalidade das instâncias de um fenômeno podem obter informações acerca do comportamento do mesmo com muito mais rapidez e precisão do que a ciência tradicional. Isso seria possível através da análise de grandes quantidades de dados não estruturados, distribuídos em diversas bases, em diferentes formatos e em constante crescimento. Além disso, estes modelos poderiam prever o comportamento do fenômeno modelado sem a necessidade de hipóteses ou teorias e sem a influência de viéses humanos. Isto quer dizer também que modelos baseados em Big Data poderiam descrever e prever o comportamento do fenômeno modelado, mas não oferecer qualquer explicação causal do seu comportamento. Os críticos dos Big Data, por sua vez, acreditam que não é possível datificar a totalidade das instâncias de um fenômeno. Afirmam também que modelos estatísticos são sempre fundamentados em certas hipóteses e que os viéses humanos não são por eles eliminados, mas frequentemente naturalizados. Por fim, declaram que um modelo que pretenda descrever e prever o comportamento de um fenômeno sem identificar suas causas e suas possíveis consequências está fadado ao erro. Nosso objetivo é investigar em que medida modelos baseados em Big Data são ou não adequados à descrição e previsão do comportamento de sistemas complexos auto-organizados, como sociedades humanas, e se a aplicação dos resultados destes modelos pode interferir no comportamento de tais sistemas, eventualmente gerando feedback loops e fazendo os modelos comportar-se como profecias autorrealizáveis.


AUTORES: Valdirene Aparecida Pascoal (UNESP) e Felipe Eleutério (UNESP

TITULO: Estudo do possível impacto da computação ubíqua na conduta a partir de uma análise semiótica da informação

Neste trabalho buscamos investigar a possível relação entre informação, na perspectiva semiótica de Charles S. Peirce, e o direcionamento da ação promovida pelos dispositivos de computação ubíqua. Discute-se bastante na sociedade contemporânea a noção de informação, contudo, ainda não há um consenso na comunidade filosófica e científica sobre esse conceito, pois não sabemos o que é a informação, como ela se constitui, qual seria seu papel no direcionamento da ação. A nossa hipótese de trabalho é a de que a concepção semiótica de informação pode trazer contribuições significativas para o entendimento do papel que a informação e/ou os processos informacionais desempenham no direcionamento da conduta humana, em especial na ação mediada por tecnologias computacionais ubíquas. A informação na perspectiva peirceana é entendida como um processo semiótico: um signo transmite informação por meio de um elemento unificador que possibilita uma unidade dinâmica presente na constituição de padrões informacionais. Nesse sentido, a experiência colateral e a sintaxe que se estabelece entre icone (qualidade do signo) e índice (espaço temporal) é essencial para que um dicissigno transmita informação e direcione a ação dos agentes. Argumentamos que a abordagem semiótica peirceana possibilita a compreensão de processos informacionais mediados pela computação ubíqua que promovem o direcionamento da conduta dos agentes e a mudança de hábitos incorporados socialmente relevantes.


AUTORES: Gabriel Ducatti e Renata Souza

TITULO: Mecanismos de manipulação nas redes sociais digitais: uma investigação de possíveis impactos das Fake News

O objetivo deste trabalho é tecer possíveis hipóteses, inspirados em concepções da filosofia de Charles Sanders Peirce, sobre o que vem ocorrendo com a noção de verdade e sua aplicação na ação social, na qual a verdade como referência é desconsiderada em proveito da ênfase sobre efeitos emocionais estimulados por Fake News. Para tanto, as seguintes questões serão investigadas: 1) quais são os mecanismos e estruturas subjacentes na dinâmica de divulgação de Fake News? 2) quais são as possíveis consequências éticas do abandono da noção de verdade no contexto das relações sociais? Em sociedades informatizadas é premente investigar o design e mecanismos das redes que convidam os usuários a interagirem gerando dados diversificados. Para além disso, também entendemos que é premente a análise dos mecanismos utilizados por empresas de tratamento de dados interessadas em direcionar (através de ferramentas como microtargeting) a conduta dos usuários em prol de interesses particulares (políticos, comerciais). Como exemplo da tentativa de direcionamento da conduta dos usuários consideraremos as Fake News, caracterizadas como notícias fraudulentas direcionadas a determinados perfis. Tais “notícias” se definem não pela consideração da verdade como referência, mas sim pelos efeitos na dimensão afetiva por elas gerados. A conduta individual e coletiva, em tempos em que há uma possibilidade instantânea de compartilhar opiniões, parece perder sua importante referência. Discutiremos a hipótese de trabalho segundo a qual o abandono da noção de verdade pode gerar cenários que induzem polarização da opinião pública e, consequentemente, produz efeitos nocivos para a conduta de usuários que não sabem mais em quais notícias direcionar sua conduta.


AUTOR: Luis Octavio Gabatelli

TITULO: Big data e games: criação em demanda de processos cognitivos e interativos

Este artigo, de metodologia exploratória, tem como objetivo analisar como o big data está sendo dirigido no aperfeiçoamento dos processos de interação e cognição dos usuários de jogos eletrônicos, através de ludologias e de narrativas criadas pelas produtoras de videogames que identificam, no exame empírico de grandes quantidades de informações, as demandas dos consumidores.
Neste cenário, tal estratégica mercadológica, que impacta diretamente na construção simbólica da interação homem-máquina, do corpo e da mente dos usuários com o virtual, tem como background information os dados extraídos de milhares de pessoas e dispositivos tecnológicos integrados nas redes telemáticas de comunicação. Além disso, assim como ocorre com outros produtos de consumo interativo, de entretenimento e aprendizado, o objetivo das produtoras de jogos eletrônicos consiste emcoletar e utilizar dados em grande escala para compreender as necessidades e os desejos dos usuários/consumidores, a fim de entregar jogos com histórias (narrativas) e formas de se jogar (ludologia) que trabalham, na busca sentidos qualitativos, a melhor relação do corpo e das dimensões cognitivas dos jogadores com os dispositivos mediadores de jogabilidade (consoles, PCs, dentro outros), bem como na imersão dos usuários no território virtual.
Desse modo, nesta proposta de estudo, partimos de dois pontos essenciais para que possamos compreender este fenômeno: 1) Como o big data vem sendo utilizado na coleta de informações para gênese narratológica e de ludologia dos jogos eletrônicos; 2) Como as informações analisadas com o auxílio do big data estão sendo empregadas na construção dos processos interativos e cognitivos em jogos eletrônicos.
O referencial teórico deste trabalho está ordenado em pesquisas contemporâneas, em especial de autores brasileiros na área de Games Studies, que analisam os processos cognição e interação em jogos eletrônicos. Em complemento, este estudo está ancorado em pesquisas sobre o fenômeno do big data e na análise de dois jogos que trazem colaborações significativa para a problemática deste trabalho, pois estão alinhados com a proposta de utilização do big data em sua produção: a franquia The Elder Scrolls V: Skyrim (2011-2016), da Bethesda Games Studios, e Call of Duty: Black Ops 3 (2015) da Treyarch.


AUTOR: Luís Roberto Albano Bueno da Silva

TITLE: COMUNICAÇÃO E COGNIÇÃO: APROXIMAÇÕES ENTRE MÁQUINA SEMIÓTICA E INTELIGÊNCIA ARTIFICIAL À LUZ DE CHARLES SANDERS PEIRCE

Esta pesquisa tem como tema a relação comunicação/cognição cujas aproximações se fazem entre os conceitos de máquina semiótica, Inteligência Artificial e semiótica peirceana. Considera-se, de um lado, a máquina semiótica como um dispositivo não necessariamente orgânico que realiza um processo cognitivo e, a Inteligência Artificial como um meio sintético que simula um processo cognitivo de tomada de decisões independentes; de outro lado, considera-se que os processos cognitivos envolvem transformações dos signos e não apenas troca de informações e dados. Diante deste contexto, pergunta-se: Quais aspectos da teoria cognitiva, na interpretação da semiótica de Charles Sanders Peirce, podem ser observados quando o processamento de um aprendizado de uma máquina semiótica e de uma Inteligência Artificial são aproximados? O objetivo geral consiste em compreender a relação entre comunicação e cognição, a partir de sistema inteligente e máquina semiótica, sob o ponto de vista de teorias peirceanas, enquanto tratar o conceito de cognição, na perspectiva do pensamento peirceano; explicitar os conceitos de cognição em Inteligência Artificial forte e máquina semiótica; identificar especificidades dos vínculos da cognição com a aprendizagem, percepção e tomada de decisão em máquina semiótica e sistema inteligente, bem como explicitar as aproximações de tais conceitos à cognição, constituem os objetivos específicos. A metodologia envolve pesquisa bibliográfica e comparação entre o conceito de cognição desenvolvido em Inteligência Artificial e em máquina semiótica, via teorias peirceanas, com foco na cognição, utilizando diagramas de semiose desenvolvidos para este fim. A relevância desta pesquisa reside na discussão sobre fundamentos teóricos ainda não utilizados em inteligência artificial forte para a compreensão da cognição e, a partir disso, propiciar uma ressignificação da relação entre comunicação e cognição. Em consulta efetuada no portal da CAPES e FAPESP, bem como nos bancos de dissertação das Universidade de São Paulo (USP), Universidade Estadual de Campinas (UNICAMP) e Pontifícia Universidade Católica de São Paulo (PUC-SP), constatou-se poucas pesquisas envolvendo inteligência artificial e semiótica, que se reportam à compreensão da cognição. As mais relevantes, como visto anteriormente, descrevem relações básicas ou iniciais, dando os primeiros passos na compreensão da interface entre semiótica peirceana (em máquinas semióticas) e inteligência artificial. Além disso, esta pesquisa contribui para uma melhor compreensão da inteligência artificial, pois os sistemas inteligentes estão se tornando players de grande importância nos processos comunicacionais e culturais.


AUTOR: Déborah Alves

TITULO: Um olhar sobre a pós-verdade através da perspectiva semiótica de Peirce

Embora Peirce tenha se reposicionado várias vezes ao longo de sua vida enquanto um pesquisador voraz, a noção de verdade e o questionamento sobre as intenções reais do discurso sempre se fizeram presente. Esses reposicionamentos também apontaram aos seus estudiosos uma possibilidade de catalogação por data, para facilitar a compreensão da evolução filosófica da sua noção de lógica e verdade.
Peirce, à frente do que se imaginava em seu tempo, teorizou sobre questões que nos permitem ligar o questionamento semiótico à esse posicionamento na era da pós-verdade.
Em a Fixação da crença, Peirce propõe métodos diferentes para que uma ideia seja aceita pelo homem e seja fixada para esse, até que se torne uma crença. Os métodos observados pelo filósofo são científico, a priori, de autoridade e o de tenacidade, cada qual com uma característica diferente entre si, ambos apontando para o caminho da ativação da crença.
Há, antes de tudo, que se filosofar sobre a verdade pura e sua mudança ao longo dos tempos. O que Kepler, Copérnico e Galileu, tendo em comum o caráter desafiador da verdade que prevalecia em sua época. “O objecto do raciocínio é descobrir, a partir da consideração daquilo que já sabemos, alguma outra coisa que desconhecemos”, afirma Peirce em A fixação da crença.
Pela perspectiva Pierciana compreende-se que se se quer algo, é mais fácil acreditar naquilo e ter nossas ações sobre influência desse desejo, independente se é um fato real ou apenas uma criação por algum motivo qualquer. Crer no que se quer é mais fácil para impulsionar o agir. A dúvida em alguma questão não impulsiona o agir. Encontrar uma verdade a que se possa apegar, independente de sua fonte de origem é um refresco para um desejo.
Acreditar em algo é encontrar um conforto para o pensamento, enquanto a dúvida é a situação oposta, é o desconforto e o incômodo, do qual se busca correr para o descanso do pensamento. A dúvida, ao contrário do que se parece de primeira, é valiosa do sentido de instigar a busca pela verdade. “A dúvida gera a luta para atingir a inquirição” Criar uma dúvida, é o início de uma luta para a satisfação de um desejo.
A partir do momento que a crença é estabelecida, o homem busca o conforto naquilo que crê, e procura intuitivamente fechar os olhos para as outras possibilidades, já que a crença é mais reconfortante que a dúvida. Ora, se olharmos para os esclarecimentos filosóficos propostos por Peirce e validarmos o esforço na divulgação de notícias falsas, poderemos constatar que a construção da crença se dá de maneira a reconhecer fatos, como dito no início, e que a veracidade do fato, que se transformará mais tarde na crença consolidada é relevante se pensarmos que o estado de conformidade chegará, e que em determinado ponto as notícias não serão mais contestadas, é subentendido, então, que as crenças podem ser manipuladas, caso sejam espalhados fatos que sirvam como satisfação de um desejo.


AUTOR: Thais Jesus

TITULO: Novos processos autorais, autopublicação e Direitos de Autor na era do Big Data

Quais são os impactos do uso de ferramentas de automação de dados sobre o mercado editorial? Como funcionam e quais papéis essas ferramentas operam nos processos autorais? De que maneira estão transformando as etapas de seleção de obras, o perfilhamento dos autores e leitores, e a própria criação literária? E ainda, diante deste cenário como prevalecer os Direitos de Autor?
Nossa pesquisa busca investigar o tema da autoria na internet, analisando os uso de ferramentas de automação de dados na produção e circulação de obras literárias em plataformas de autopublicação digital, verificando como essas tecnologias estão desestabilizando a noção de autoria e a própria perspectiva de Direitos de Autor.
Os processos digitais de classificação, ordenação, filtragem, pesquisa, priorização, recomendação e decisão computacional cada vez mais fazem parte do cotidiano das empresas editorias, e os reflexos desses usos impactam no consumo e produção autoral que é desenvolvida, visto que possuem a capacidade de moldar conhecimentos e produzir resultados, ou seja, de promover ações e/ou inações destinadas a influenciar percepções, cognições e preferências de autores, editores e leitores.
Nossa proposta é fazer uma análise exploratória dessas questões, buscando analisar teoricamente e na prática a dinâmica desse ecossistema digital.


AUTORES: Robson Rodrigues Monteiro, Claudia Wanderley (CLE-UNICAMP)

TÍTULO: Do grego antigo ao grego moderno: um caso de estudos para modelos de sistemas complexos e big data

Numa abordagem sistêmica, podemos ver a língua em funcionamento a partir do seu próprio sistema (linguístico) e para além do uso linguístico realizado pelos falantes de determinada língua. Pode ser entendida como um organismo vivo. A língua evolui à medida que seus falantes a usam no cotidiano. É interessante como as variantes da língua grega têm interagido sistêmica e dinamicamente desde o período clássico, e dentro dessa complexidade do funcionamento da língua está uma série de processos (em nossa hipótese) auto-organizados que se refletem no sistema linguístico. No período clássico, uma variante da língua grega tem mais prestígio entre seus falantes enquanto outras variantes também continuam a ser faladas. Como consequência do crescente reconhecimento da literatura, existiu a língua koiné, baseada no dialeto (ou como me referi aqui, variante) ático, considerada uma língua grega "comum" (koiné). A literatura grega bizantina ainda foi fortemente influenciada pelo grego antigo, que também influenciou o grego bíblico, um vernáculo o qual é escrito o Antigo Testamento e uma língua utilizada pela Igreja Ortodoxa Grega. Por pressões linguísticas após o fim do Império Otomano e a Independência da G?ecia, também influenciou a katharévoussa, esta foi a nova koiné do Novo Estado Grego, a língua oficial do país em paralelo ao demótico, a língua falada pelo povo, sendo a katarévoussa uma língua era dita “purificada” pelo motivo que é baseada no grego antigo e evita recorrer aos estrangeirismos que fazem influenciar o demótico. A língua grega tem sido de grande importância no meio acadêmico, e também na grande aquisição do conhecimento compartilhado nessa língua, o que é relevante e possível que este conhecimento seja disponibilizado de maneira acessível. Este projeto tem como objetivo discutir a ideia de sistemas complexos e auto-organização no plano linguístico e no contexto de uma base de dados linguística, além de iterar a relevância da complexidade das línguas, como o grego, e do conhecimento compartilhado linguisticamente pelos falantes. No caso deste estudo, a ideia de sistemas complexos como plano de fundo para compreender a linguagem nos permite entender como sistemas interagem, como uma rede dinâmica, de forma que atua como um processo auto-organizado, um reflexo de interações que trabalham dinamicamente para o próprio funcionamento e o funcionamento de outros sistemas, tornando possível neste trabalho, explorar uma perspectiva para a ideia de sistemas complexos, a percepção da forma abstrata da língua como uma unidade. Neste trabalho foram estudadas teorias em sistemas complexos e auto-organização com a intenção de poder descrever e dinamizar estes estudos junto ao objeto “língua grega”, do qual foi necessário o conhecimento adquirido dessa língua, tanto do léxico quanto do seu funcionamento linguístico, além de sua história. Estudos em linguística computacional também compõem as atividades, tendo em vista que este projeto inclui estudos sobre big data. Ao acessarmos uma base de dados que contenha todas as variantes do que se pode chamar hipoteticamente (sistema complexo da) língua grega, não podemos desconsiderar as variantes, de maneira que elas possam ser entendidas num panorama diacrônico através das suas mudanças históricas, na sintaxe, na morfologia, na semântica, na fonética e fonologia, mas também de maneira que tem sido utilizada como língua por pessoas que, ou como falante, ou como acadêmico, ou ainda como leitor, possa acessar e fazer uso desta língua, de maneira que possa entender a sua complexidade. A língua grega, assim como o conhecimento compartilhado nesta língua, tem sido de grande relevância principalmente no meio acadêmico. É interessante como, dinamicamente, a língua grega traz em sua forma, significados e ideias que ao circular entre outros sistemas (línguas) foram sendo modificados de maneira auto-organizada. Dadas essas circunstâncias, a comunidade acadêmica e externa podem usufruir desse conhecimento de maneira mais acessível.

13h00 Intervalo para almoço Almoço
Local: Livre escolha dos participantes

Para o almoço sugerimos:

Lanchonete da ECA

Restaurante Sweden da FEA

Bandejão do CRUSP 

14h00 Mesa 3 - Coordenação: Marcia Ohlson (PPGCOM/USP , CAPES) Apresentação Oral
Local: Auditório Paulo Emílio

Dinâmica: autores têm até 20 minutos para apresentação oral, feitas sequencialmente e sem intervalo para perguntas. Ao final, 30 minutos para perguntas e debates com o público.

 

AUTORA: Mariana C. Broens (UNESP, FAPESP)

TITULO: Análise de implicações éticas dos Big Data na sociedade contemporânea

O objetivo deste trabalho é investigar possíveis implicações éticas das técnicas de Big Data sobre o processo de formação da opinião coletiva. Big Data são gerados por usuários de tecnologias de computação ubíqua, inclusive de redes sociais digitais, mas podem passar a ser propriedade de grandes empresas. Tais empresas os utilizam como base, em especial, para criar estratégias de marketing, inclusive de cunho eleitoral. As técnicas de mineração de dados permitem o estabelecimento de correlações e a detecção de padrões de conduta dos usuários das redes. Tais padrões podem ser inibidos ou incentivados, segundo interesses de empresas, independentemente dos interesses específicos dos agentes cujos dados estão sendo utilizados, frequentemente sem seu conhecimento ou consentimento. Considerando este quadro contemporâneo, cujas implicações estão se fazendo sentir de modo dramático, procuraremos apresentar algumas reflexões éticas do uso de grandes dados no processo de formação da opinião e da conduta de agentes sociais.


AUTORAS: Fernanda Farinelli (UNESP/FAPESP), Edna Alves de Souza (UNESP/FAPESP) e Maria Eunice Quilici Gonzalez (UNESP/FAPESP/CNPq)

TITULO: Análise de dados no ambiente de Big Data

Tecnologias de informação e comunicação na era do Big Data impulsionaram mudanças na sociedade, como o estabelecimento das relações e a dinâmica de disseminação da informação. Neste trabalho, refletimos sobre dados oriundos de ambientes digitais e de Big Data, buscando contribuir para o entendimento de técnicas de análise disponíveis para gerar informação e conhecimento relevante da dinâmica estruturadora da opinião e da linguagem. Em 1997, Cox e Ellsworth1 empregam o termo Big Data ao descrever problemas computacionais para lidar com grandes volumes de dados. Em 2001, Laney2 , caracterizou tal problema por três desafios: (1) o volume de dados produzidos em uma (2) variedade de formatos, demandando (3) alta velocidade de processamento e análise. Entendemos Big Data como os desafios computacionais para aquisição, armazenamento, processamento e visualização de dados, correlatos à tríade volume, variedade e velocidade. O desafio da análise de dados na compreensão da dinâmica da opinião e da linguagem em ambientes virtuais, levanta a seguinte questão: Quais técnicas de análise de dados podem ser utilizadas com a emergência de Big Data para compreensão da dinâmica da opinião e da linguagem nos ambientes virtuais? Pelo menos cinco tipos de análises são utilizadas em marketing digital: i) análise descritiva, que busca responder “O que está acontecendo?” a partir de dados históricos. Exemplificando, ao analisar as vendas de uma empresa, busca-se os produtos mais e/ou menos vendidos ao longo do tempo; ii) análise diagnóstica, cuja pergunta é “Por que está acontecendo?”, identifica-se os elementos influenciadores de tal situação. Se anteriormente foram constatados, por exemplo, os produtos menos vendidos, agora deseja-se saber o porquê desses produtos terem pouca saída; iii) análise preditiva, busca-se compreender “O que pode acontecer?”, visando a determinação da probabilidade de um fato ocorrer no futuro por meio da identificação de padrões que o levaram a acontecer.; iv) análise prescritiva, que visa a identificação de “Quais as consequências para a ação se determinado fato acontecer?” busca-se identificar o que pode ocorrer para cada possível ação futura caso o fato previsto no tipo de análise anterior realmente acontecesse. Se na análise preditiva é identificada uma tendência de consumo de um produto diante de um fato, na análise prescritiva observa-se o impacto desse consumo no total de vendas da empresa; v) análise de sentimentos é uma técnica qualitativa, geralmente aplicada às redes sociais, usada para classificar se textos expressos em linguagem escrita natural representam um conteúdo positivo, negativo ou neutro. A partir da análise de i-v, propomos uma reflexão sobre dados oriundos dos ambientes de Big Data para gerar informação e conhecimento relevante no entendimento da dinâmica estruturadora da opinião e da linguagem.


AUTORES: Joao Kogler (POLI/USP) e Vinicius Romanini (PPGCOM/USP, FAPESP)

TÍTULO: Big Data e Semiótica Peirceana

A expressão em língua inglesa Big Data surgiu por volta dos últimos anos do século XX designando um corpo emergente de novas formas de análise de dados e apresentação de seus resultados, em decorrência da evolução dos recursos computacionais, que passaram a oferecer maior capacidade de operar sobre um volume abruptamente maior de dados caracterizados por dimensionalidades cada vez maiores, e do surgimento de uma tecnologia mais versátil que possibilita a coleta eficiente de mais e mais modalidades de informações. Essas novas técnicas despontaram com potencial uso para a modelagem em economia e ciências sociais, e logo passaram a ser objeto de interesse em aplicações envolvendo tomada de decisões e planejamento estratégico, principalmente nos setores governamental e de negócios. Paralelamente a esse desenvolvimento, as técnicas de automatização já vinham buscando formas de personalizar a operação de sistemas automáticos possibilitando maior grau de aderência às necessidades e hábitos individuais dos usuários. A convergência deste novo princípio com os novos métodos de análise de Big Data e concomitante ao surgimento de novos processos de comunicação eletrônica conduziu a formas eficientes para perscrutar o comportamento individual de agentes e construir modelos cada vez mais fidedignos de seus hábitos e escolhas. Aplicado aos seres humanos, o produto dessa convergência conduz a possibilidades que têm suscitado questões de ordem ética e normativa, apontando para consequências inquietantes no que concerne ao seu uso inapropriado.

Neste ensaio primeiramente esclareceremos o conceito de Big Data, incluindo algumas considerações sobre outras conotações associadas ao termo principalmente como decorrência da agenda formada sua pela convergência com a automação e as telecomunicações. Consideraremos a seguir alguns desafios de modelagem inerentes à conexão entre os dados individuais dos agentes e seu comportamento, no que se refere à caracterização de seus hábitos e crenças, à luz da semiótica Peirceana. Finalizaremos com uma avaliação das implicações de riscos potenciais à privacidade e outros valores éticos.

15h30 Intervalo para café Coffee break
Local: Auditório Paulo Emilio

Café e biscoitos servidos no Auditório Paulo Emilio

16h00 Mesa 4 - Coordenação: Renata Souza (UNESP) Apresentação Oral
Local: Auditório Paulo Emilio

Dinâmica: autores têm até 20 minutos para apresentação oral, feitas sequencialmente e sem intervalo para perguntas. Ao final, 30 minutos para perguntas e debates com o público.

 

AUTOR: Pedro Caldas (PPGCOM/USP)

TITULO: DAS MÍDIAS TRADICIONAIS ÀS REDES SOCIAIS DIGITAIS: AS RELAÇÕES DE CRENÇAS E DÚVIDAS NA EXPERIÊNCIA DE RECEPÇÃO DE DIFUSÃO DE INFORMAÇÕES SOB UM OLHAR DO PRAGMATISMO AMERICANO CLÁSSICO

Com o desenvolvimento e ascensão do advento da Internet, novas formas de propagar informações passam a ser adotadas por grande parte da população. Em se tratando do modo pelo qual os brasileiros se informam, pesquisas recentes apontam que as mídias tradicionais vêm perdendo espaço para as novas tecnologias digitais, como, por exemplo, as redes sociais online. Uma vez que se muda a maneira pela qual certos grupos de pessoas recebem essas informações, muda-se também a maneira pela qual as crenças - e, em última análise, os respectivos hábitos - são fixadas em determinadas comunidades e indivíduos que constituem esses grupos maiores. Assumindo-se, portanto, que as mudanças supracitadas não sejam revertidas a pequeno e médio prazo, o presente trabalho tem como objetivo compreender, utilizando-se da teoria de fixação das crenças proposta por Peirce, assim como de sua doutrina pragmatista (sucedida por James), quais são as consequências pragmáticas, em termos de progresso e retrocesso, dessa mudança geral do modo pelo qual a população brasileira se informa. Para tanto, faz-se necessário que retornemos, partamos dos textos “A Fixação da Crença” (1877) e “Como tornar as nossas ideias claras” (1878), ambos de Peirce, e, sem desconsiderar as críticas pertinentes a essas duas obras, busquemos características comuns que possam relacionar os meios de recepção e difusão de informações abordados - tanto as mídias tradicionais, quanto as redes sociais digitais - aos método de fixação de crenças, a fim de poder determinar por quais modos as crenças são fixadas dentro de cada uma das conjunturas investigadas. Tendo sido concluído o exercício de relação entre os meios de informação aqui considerados e os métodos de fixação de crenças propostos por Peirce, cabe a nós, então, avaliar se os modos pelos quais as informações são recebidas e difundidas nas redes sociais digitais constituem um progresso pragmático ou um retrocesso quando comparados aos modos encontrados na experiência das mídias tradicionais.


AUTORA: Renata Mielli (Forum Nacional pela Democratização da Comunicação)

TITULO: O uso do WhatsApp para plasmar opinião baseada em mentira e desinformação

Este artigo busca iniciar uma análise a partir dos dados disponíveis em pesquisas e na investigação de algumas hipóteses sobre como se deu a migração da estratégia de comunicação eleitoral das redes sociais abertas para o whatsapp. Como a mensagem entre dois pólos potencializou a disseminação de desinformação, mentiras e incentivou o ódio na eleição presidencial de 2018.

Por ser uma rede criptografada ponta-a-ponta o rastreamento dos conteúdos que circulam pelo WhatsApp é bem mais difícil de ser feito. Mas é possível e indispensável entender como são escolhidos os temas e os formatos que vão ser a matéria prima de uma produção em escala industrial de desinformação e mentiras. E isso se dá a partir da mineração de dados pessoais (Big Data) e do uso de de algoritmos que testam discursos nas redes abertas a partir do perfilamento dos usuários distribuídos em bolhas de interesse. Uma vez “aprovados" pela viralização esse conteúdo foi adaptado e distribuído em grupos de whatsapp criados com o uso ilegal de banco de dados. Nessa rede subterrânea, sem espaço para a contraposição de ideias e questionamento de informações, elas são potencializadas e reforçam conceitos prévios e reafirmam as ideias de determinado grupo. E, mesmo diante da verificação de fatos e de posicionamentos oficiais comprovando que determinados conteúdos eram mentira, as pessoas continuaram acreditando e reproduzindo esses conteúdos, como no caso do "Kit Gay”, simplesmente por esse conteúdo já reforçar sua opinião. O artigo buscará analisar, ainda, se a legislação vigente no Brasil seria suficiente para evitar ou reduzir os danos produzidos pelo uso do WhatsApp e a disseminação de mentiras. Entre as leis que serão analisadas está o Marco Civil da Internet (Lei 12.965/2014) que define deveres e direitos na Internet, a Lei Carolina Dieckmann (Lei 12.737/2012) que tipifica os delitos ou crimes informáticos, a lei 13.488/2017 que definiu as regras para a eleição de 2018, além das previsões legais para injúria, calúnia e difamação presentes no código penal.


AUTORA: Vivian Santana Paixão (PPGCOM/USP)

TITULO: Elegemos um meme

Os usuários das redes sociais, todos os dias, visualizam e interagem com milhares de memes sobre os mais diversos assuntos: entretenimento, cultura, política. Essa nova forma de comunicação é, ao mesmo tempo, uma maneira de diversão e um modo de adquirir informação, já que o meme costuma ser divertido, leve e sobre um tema atual. 
Os memes têm sido, cada vez mais, usados no contexto político partidário. Essa afirmação pode ser confirmada nas eleições presidenciais brasileiras de 2018 em que o meme está sendo utilizado tanto para transmitir propostas de campanha quanto estimular a disseminação da fake news do candidato adversário. Isso se deve ao fato de o meme ser de fácil produção e simples entendimento. Enquanto está acontecendo um debate, por exemplo, centenas de memes estão sendo criados e disseminados, utilizando, muitas vezes, a imagem de um determinado candidato e uma frase de efeito. 
É interessante notar que tanto a esquerda quanto a direita – mais conservadora - aderiram a esse meio de transmitir informações que se baseia no humor e na imagem. Eleitores de pensamentos e ideologias tão diferentes adquiriram a mesma forma de informação e persuasão. 
Pensando nisso, esse artigo tem como objetivo trabalhar os memes criados e divulgados pelos eleitores do candidato à Presidência da República Jair Messias Bolsonaro, tendo a semiótica peirciana como base de interpretação. 
Assim, o intuito é chegar à conclusão de que os brasileiros elegeram um meme para presidente, já que Bolsonaro é alguém com uma trajetória política sem brilhantismo e que apresentou um projeto de governo simplório. Ou seja, o novo presidente brasileiro se assemelha a um meme: tem um discurso simples que chama a atenção em um primeiro momento, mas sem profundidade. 
Por meio da teoria criada por Peirce, serão estudados os memes exaltando o candidato, mas, principalmente aqueles que denigrem seus adversários, buscando compreender os mecanismos que fazem com que as pessoas que gostam de Bolsonaro sintam que estão tomando a decisão certa e, até mesmo, aqueles eleitores indecisos tenham visto no candidato do PSL alguém capaz de governar um país com tantos problemas e contradições.

16h00 Mesa 5 - Coordenação: Renata Lípia Lima (CELACC/USP) Apresentação Oral
Local: Auditório Paulo Emílio

Dinâmica: autores têm até 20 minutos para apresentação oral, feitas sequencialmente e sem intervalo para perguntas. Ao final, 30 minutos para perguntas e debates com o público.

AUTORES: Claudio Barboza (USP) e Laudelina Pereira (USP)

TITULO: IMPACTOS DA SEGMENTAÇÃO NA SOCIEDADE

O mercado de compra e venda de dados pessoais tem papel de destaque na economia informacional. Entre as organizações que operam neste mercado, destacamos os data brokers (corretoras de dados) que coletam, tratam, classificam e vendem dados privados, muitas vezes sem o conhecimento e consentimento do cidadão.
Para tanto analisamos o Mosaic, ferramenta de segmentação comercializada pela corretora de dados Serasa Experian, que classifica a população brasileira com base no seu poder de consumo em 11 categorias e 40 segmentos. Este método de categorização considera aspectos financeiros, geográficos, demográficos, de consumo, comportamento e estilo de vida.
Cada categoria contém imagens e descrições que podem contribuir com a discriminação tão eminente na sociedade capitalista. Para exemplificar apontamos o grupo „A - Elite Brasileira?, simbolizada por um homem branco idoso, descrito como um grupo de pessoas „bem sucedidas?. Já o grupo „G - Jovens da Periferia?, representado por uma moça negra apresenta a descrição: “8 em cada 10 já tiveram algum tipo de dificuldade para honrar seus compromissos financeiros” (SERASA EXPERIAN, 2018).
Nesse contexto o estudo busca compreender o reforço de estereótipos através das imagens do Mosaic e os impactos que a segmentação pode produzir na vida das pessoas. Um desses aspectos é a modulação que cria uma “bolha invisível”, na qual “mecanismos criam e refinam constantemente uma teoria sobre quem somos e sobre o que vamos fazer ou desejar seguir” (PARISER, 2012, p.14). Nessa perspectiva, O?Neil (2016) vê o esforço das organizações em conduzir as pessoas em direção a seus interesses. Outro ponto é que este modelo de inferência tem o poder de reforçar estereótipos na sociedade e de distorcer como as organizações tratam os cidadãos, incentivando assim a discriminação e a desigualdade, uma vez que estas análises estão relacionadas à CEPs, raça, etnia, gênero, classe social e informações referentes a recursos econômicos e educacional (O?NEIL, 2016).


AUTOR: Rogério Andrade (UMESP)

TITULO: AMBIENTE COMUNICACIONAL E SIGNIFICAÇÃO VISUAL NA CIBERCULTURA

O presente trabalho apresenta reflexões a respeito da influência que a produção e a difusão de imagens digitais, na qualidade de informações visuais, exercem para a construção de um ambiente comunicacional característico da Cibercultura, tanto quanto, para a consolidação dos processos de significação no ciberespaço.
Pierre Lévy, em sua celebre obra dedicada à Cibercultura, analisa o papel das tecnologias para a consolidação de novas formas de acesso à informação e para a construção do conhecimento no plano sociocultural, tendo o ciberespaço como mediador essencial da inteligência coletiva. Nesse contexto, apontamos as implicações que a produção, a circulação e a recepção das imagens fotográficas, produzem para o campo epistemológico em suas relações com o conhecimento. A teoria dos “interpretantes”, oriunda da semiótica peirceana, nos oferece subsídios para o entendimento do papel que as imagens digitais assumem na semiose social, assim como para a compreensão dos processos de significação próprios da chamada “cultura visual”.
O conceito de ambiente comunicacional, proposto por Norval Baitello, servirá de base para a argumentação de que os ambientes digitais de navegação na Internet são semiosferas conceituais, constitutivas de bolhas ideológicas, estruturadas por sistemas de coleta, análise e distribuição de informações. Segundo o Houaiss, o ambiente é caracterizado por “tudo que rodeia os seres vivos e/ou as coisas”. Tomando como perspectiva o campo da comunicação, o conceito de ambiente digital pode ser concebido como uma construção subjetiva delimitada pela “intencionalidade de estabelecer vínculos” e interações no ciberespaço. No âmbito das estratégias de big data, são estes vínculos e interação que tornam-se dados/informações constituintes das estruturas e bolhas ideológicas.
Eli Pariser rejeita o discurso amplamente difundido de que a internet, em sua condição de rede mundial de alcance, proporcione acesso à plena diversidade de expressões e conteúdos. A presente pesquisa pretende propor que a plena circulação de imagens digitais conjuntamente à consolidação dos regimes de visualidade impostos pela cultura visual, são componentes fundamentais para a vigência das atuais estratégias de big data e para a consolidação da própria cibercultura.


AUTORA: Claudia Wanderley (CLE-UNICAMP)

TÍTULO: O big data pode ser processado em base multilingue e multicultural? Modelo aberto de uma biblioteca polifônica digital

O modelo que apresentamos neste projeto diz respeito à noção de acesso democrático à informação. Ele é desenvolvido com o propósito de criação e difusão de conteúdo local em idiomas locais. Baseado na noção de sistemas operacionais (sistemas computacionais) como sujeitos sociais e na ideia de que os sujeitos falantes experimentam suas capacidades de falar através de uma variedade de falas, no caso chamadas fonias. Esses fonias são aqui compreendidas como repertórios de caráter lingüístico que existem simultaneamente e de forma gradual, sem necessariamente a presença de fronteiras lingüísticas bem delimitadas e bem definidas. O objetivo de uma biblioteca digital polifônica é criar um conhecimento polifônico e uma grande base de dados que permita a compreensão e uma experiência digital integrada dessa miríade de repertórios e facilitar a navegação entre eles. Esta biblioteca polifônica digital, portanto, não está centrada em um mero processo de tradução ou em um transporte de conhecimento de uma língua para outra, mas em uma rede imaginária de conhecimento na qual muitos repertórios lingüísticos pertencem simultaneamente imbricados. Esta teia encontra sua possível atualização em uma plataforma polifônica digital que permite a presença e a simultaneidade de várias fonias, os quais não são pensados como um conjunto de fonias heterogêneas e intrinsecamente diferentes, que em seqüência serão serializados, sequencializados, e mostrados em um sistema multilateral, construindo relações que não afetam sua individualidade. Antes da era colonial e da expansão da Europa no mundo, a maioria das populações vivia em regimes fônicos - praxis de fala e, às vezes, praxis de escrita - que não se baseavam na idéia de linguagens tão bem determinadas, nem claramente diferenciadas entre si através de uma noção de territorialidade: que é uma língua pertencente a um território específico (com sua população falada específica). É claro que também pode ser visto, como desenvolvido anteriormente, como políticas lingüísticas européias que promovem o território colonial além da Europa. Nosso ponto aqui é que a maioria das pessoas tinha, sim, um repertório lingüístico aberto, com diferenças internas e graduais, utilizando-os em diferentes contextos e diferentes objetivos, além de fórmulas linguísticas e vocabulários, que hoje são percebidos como pertencentes a muitas línguas. Nosso interesse neste trabalho é recuperar esta instância de percepção da circulação de sentidos entre línguas e culturas, e fortalecer o aspecto multilingue e intercultural do trabalho de desenvolvimneto e utilização de bases de dados.

17h30 - Itala Loffredo D´Ottaviano Itala Loffredo D´Ottaviano (UNICAMP, FAPESP) - Coordenação de Guiou Kobayashi (UFABC) Palestra
 Itala Loffredo D´Ottaviano (UNICAMP, FAPESP)  - Coordenação de Guiou Kobayashi (UFABC)
Local: Auditório Paulo Emílio

Pensamento Sistêmico

Analisaremos, a partir de uma perspectiva sistêmica, alguns conceitos e definições fundamentais de uma teoria geral, compatível com diversas áreas do conhecimento. A partir dos conceitos de organização sistêmica, auto-organização e complexidade, e de sua inter-relação com os conceitos de criação e evolução sistêmica, nós analisaremos  questões relacionadas à computação ubíqua, ação autônoma e transumanismo sistêmico

Local

Auditório Paulo Emílio (Segundo andar - Escola de Comunicações e Artes - Universidade de São Paulo) - 05508-020, Avenida Professor Lúcio Martins Rodrigues, 443, Butantã, São Paulo, São Paulo,

Organizador

Grupo de Estudos SemioData - Escola de Comunicações e Artes (ECA)

Criado em 2018 na Escola de Comunicações e Artes (ECA) da Universidade de São Paulo (USP), o Grupo de Estudos em Semiótica, Comunicação e Big Data (SemioData) tem como objetivo investigar de que maneira a utilização de grandes bases de dados digitalizados impactam os processos de percepção, representação e comunicação nas sociedades cada vez mais dependentes das formas de registro, armazenamento, recuperação e processamento por meio de computadores e dispositivos associados.