
Education Platform
Etimologia
Epistemologia (do grego ἐπιστήμη, transl. episteme: conhecimento certo, ciência;[1] λόγος, transl. logos: discurso, estudo), em sentido estrito, refere-se ao ramo da filosofia que se ocupa do conhecimento científico; é o estudo crítico dos princípios, das hipóteses e dos resultados das diversas ciências, com a finalidade de determinar seus fundamentos lógicos, seu valor e sua importância objetiva. [2]Em uma acepção mais restrita, a epistemologia pode ser identificada com a filosofia da ciência.
O termo "epistemologia", cunhado pelo filósofo escocês James Frederick Ferrier (1808 – 1864),[3] refere-se especificamente à parte da gnosiologia que estuda os requisitos e condições necessários à produção do conhecimento científico, incluindo os fundamentos, a validade, a consistência lógica das teorias e os limites desse conhecimento. [4] Mais recentemente, entretanto, o conceito passou a ser usado, em sentido amplo, como sinônimo de gnosiologia ou teoria do conhecimento - disciplina que se ocupa do estudo do conhecimento humano em geral.[5][6][7]
A epistemologia relaciona-se também com a metafísica. A sua problemática compreende a questão da possibilidade do conhecimento - nomeadamente, se é possível ao ser humano retratar o conhecimento total e genuíno - dos seus limites (haveria realmente uma distinção entre o mundo cognoscível e o mundo incognoscível?) e de sua origem (por quais faculdades atingimos o conhecimento? Haverá conhecimento certo e errado em alguma concepção a priori?). De fato, existem limites epistemológicos, que se devem ao fato de a diversidade e a complexidade dos seres humanos e dos ambientes onde estes se desenvolvem tornarem virtualmente impossíveis os procedimentos de controle experimental.
Conhecimento
Em geral, a epistemologia também discute o conhecimento proposicional ou o "saber que". Esse tipo de conhecimento difere do "saber como" e do "conhecimento por familiaridade". Por exemplo: sabe-se que 2 + 2 = 4 e que Napoleão foi derrotado na batalha de Waterloo. Essas formas de conhecimento diferem de saber como andar de bicicleta ou como tocar piano, e também diferem de conhecer uma determinada pessoa ou estar "familiarizado" com ela. Alguns filósofos consideram que há uma diferença considerável e importante entre "saber que", "saber como" e "familiaridade" e que o principal interesse da filosofia recai sobre a primeira forma de saber.
Em seu ensaio Os Problemas da Filosofia, Bertrand Russell distingue o "conhecimento por descrição" (uma das formas de saber que) do "conhecimento por familiaridade".[8] Gilbert Ryle dedica atenção especial à distinção entre "saber que" e "saber como" em The concept of mind (O Conceito de Mente).[9] Em Personal Knowledge, Michael Polanyi argumenta a favor da relevância epistemológica do saber-como e do saber-que. Usando o exemplo do equilíbrio envolvido no ato de andar de bicicleta, ele sugere que o conhecimento teórico da física para a manutenção do estado de equilíbrio não pode substituir o conhecimento prático sobre como andar de bicicleta. Para Polanyi, é importante saber como essas duas formas de conhecimento são estabelecidas e fundamentadas. Essa posição é a mesma de Ryle, que argumenta que, se não consideramos a diferença entre saber-que e saber-como, somos inevitavelmente conduzidos a um regresso ao infinito.
Mais recentemente, alguns epistemólogos (Ernest Sosa, John Greco, Jonathan Kvanvig, Linda Trinkaus Zagzebski) argumentaram que a epistemologia deveria avaliar as propriedades das pessoas (isto é, suas virtudes intelectuais) e não somente as propriedades das proposições ou das atitudes proposicionais da mente. Uma das razões é que as formas superiores de processamento cognitivo (como, por exemplo, o entendimento) envolveriam características que não podem ser avaliadas por uma abordagem do conhecimento que se restrinja apenas às questões clássicas da crença, verdade e justificação.
Crença
No discurso comum, uma "declaração da verdade" é uma típica expressão de fé ou confiança em uma pessoa, num poder ou em outra entidade - o que inclui visões tradicionais. A epistemologia se preocupa com o que acreditamos; isso inclui a verdade e tudo que nós aceitamos para nós mesmos como verdade.
Verdade
A verdade não é um pré-requisito para a crença. De outro modo, se algo é conhecido, categoricamente, não pode ser falso. Por exemplo: se uma pessoa acredita que a ponte é segura o suficiente para aguentar seu peso e tenta atravessá-la, mas a ponte se quebra devido ao peso, pode-se dizer que a pessoa acreditou que a ponte era segura, mas estava errada. Não seria correto afirmar que ele sabia que a ponte era segura, pois ela, claramente, não era. Em contraste, se a ponte aguentasse seu peso, ela diria que acreditou que a ponte era segura e, agora que cruzou a ponte e provou para si que a ponte é segura, ela sabe que é segura.
Justificação
A justificação se constitui das razões ou provas apresentadas em apoio à veracidade de uma crença ou de uma afirmação. É preciso, portanto, compreender as razões de uma crença e se tais razões têm um fundamento lógico.
Semiótica
A semiótica é o estudo da construção de significado, o estudo do processo de signo (semiose) e do significado de comunicação. Não deve ser confundida com a tradição saussureana denominada semiologia, que é um subconjunto da semiótica.[1][2]
A semiótica inclui o estudo de sinais e processos de signos, indicação, designação, semelhança, analogia, alegoria, metonímia,
metáfora, simbolismo, significação e comunicação.[3] A tradição semiótica explora o estudo de signos e símbolos como parte significativa das comunicações. Diferentemente da linguística, entretanto, a semiótica também estuda sistemas de signos não-linguísticos.
A semiótica é frequentemente vista como essencial nos âmbitos antropológicos e sociológicos; o semiólogo e romancista italiano Umberto Eco propôs que todo fenômeno cultural possa ser estudado como uma comunicação. Alguns semióticos priorizam as dimensões lógicas da ciência. Eles examinam áreas pertencentes também às ciências da vida - como a forma como os organismos fazem previsões e se adaptam a seu nicho semiótico no mundo (ver semiose). Em geral, as teorias semióticas levam como objeto de estudo os signos ou sistemas de signos: a comunicação da informação nos organismos vivos é coberta pela Biossemiótica.
Origens do estudo geral dos signos
O termo deriva do grego σημειωτικός sēmeiōtikos, "relacionado aos sinais" (do σημεῖον sēmeion, "um sinal, uma marca")[4] e foi usado primeiramente pelo inglês Henry Stubbes em 1676[5] (em um sentido muito preciso para denotar o ramo da ciência médica relacionado à interpretação dos signos).[6]
John Locke usou o termo sem(e)iotike no capítulo 21 do livro 4 de sua obra Ensaio acerca do Entendimento Humano (1690).[7][8] Aqui ele explica como a ciência pode ser dividida em três partes:
”Tudo o que pode ser inteligível pela compreensão humana, sendo, primeiro, a natureza das coisas, como elas são em si mesmas, suas relações e sua maneira de operar: ou, em segundo lugar, aquilo que o próprio homem deve fazer, como agente racional e voluntário para a consecução de qualquer fim, especialmente a felicidade: ou, em terceiro lugar, os meios pelos quais o conhecimento de um e de outro é alcançado e comunicado; Eu acho que a ciência pode ser dividida corretamente nesses três tipos.”
É importante dizer que o saber foi estudado, inicialmente, constituído por uma dupla face. A face semiológica (relativa ao significante) e a epistemológica (referente ao significado das palavras).
A semiótica tem, assim, a sua origem na mesma época que a filosofia e disciplinas afeitas. Da Grécia antiga até os nossos dias tem vindo a desenvolver-se continuamente. Porém, posteriormente, há cerca de dois ou três séculos, é que se começaram a manifestar aqueles que seriam apelidados pais da semiótica (ou semiologia).
Os problemas concernentes à semiologia e à semiótica, assim, podem retroceder a pensadores como Platão e Santo Agostinho, por exemplo. Entretanto, somente no início do século XX com os trabalhos paralelos de Ferdinand de Saussure e Charles Sanders Peirce, o estudo geral dos signos começa a adquirir autonomia e o status de ciência.
Charles Sanders Peirce
No estudo geral dos signos, Charles Sanders Peirce (1839-1914) seria o pioneiro daquela ciência que é conhecida como "semiótica", usando já este termo, que John Locke, no final do século XVII, teria usado para designar uma futura ciência que estudaria, justamente, os signos em geral.[9]Para Peirce, o Homem significa tudo que o cerca numa concepção triádica (primeiridade, secundidade e terceiridade), e é nestes pilares que toda a sua teoria se baseia.
Num artigo intitulado “Sobre uma nova lista de categorias”, Peirce, em 14 de maio de 1867, descreveu suas três categorias universais de toda a experiência e pensamento. Considerando tudo aquilo que se força sobre nós, impondo-se ao nosso reconhecimento, e não confundindo pensamento com pensamento racional, Peirce concluiu que tudo o que aparece à consciência, assim o faz numa gradação de três propriedades que correspondem aos três elementos formais de toda e qualquer experiência. Essas categorias foram denominadas:
-
Qualidade;
-
Relação;
-
Representação.
Algum tempo depois, o termo Relação foi substituído por Reação e o termo Representação recebeu a denominação mais ampla de Mediação. Para fins científicos, Peirce preferiu fixar-se na terminologia de Primeiridade, Secundidade e Terceiridade.
Primeiridade - a qualidade da consciência imediata é uma impressão (qualidade de sentimento) in totum, invisível, não analisável, frágil. Tudo que está imediatamente presente à consciência de alguém é tudo aquilo que está na sua mente no instante presente.
O sentimento como qualidade é, portanto, aquilo que dá sabor, tom, matiz à nossa consciência imediata, aquilo que se oculta ao nosso pensamento. A qualidade da consciência, na sua imediaticidade, é tão tenra que mal podemos tocá-la sem estragá-la. Nessa medida, o primeiro (primeiridade) é presente e imediato, ele é inicialmente, original, espontâneo e livre, ele precede toda síntese e toda diferenciação. Primeiridade é a compreensão superficial de um texto (leia-se texto não ao pé da letra; ex: uma foto pode ser lida, mas não é um texto propriamente dito).
Como Luis Caramelo explica no seu livro Semiotica uma introdução, "A primeiridade diz respeito a todas as qualidades puras que, naturalmente, não estabelecem entre si qualquer tipo de relação. Estas qualidades puras traduzem-se por um conjunto de possibilidades de vir a acontecer(…)". Desta forma, temos, no nosso mundo o acontecimento ou possibilidade "chuva", mas é apenas isso, apenas possibilidade existencial. Caso localizemos chuva como um acontecimento, por exemplo "está a chover" estamos perante a secundidade.
Secundidade - a arena da existência cotidiana, estamos continuamente esbarrando em fatos que nos são "externos", tropeçando em obstáculos, coisas reais, factivas que não cedem ao sabor de nossas fantasias. O simples fato de estarmos vivos, existindo, significa, a todo momento, que estamos reagindo em relação ao mundo. Existir é sentir a acção de fatos externos resistindo à nossa vontade. Existir é estar numa relação, tomar um lugar na infinita miríade das determinações do universo, resistir e reagir, ocupar um tempo e espaço particulares.
Onde quer que haja um fenômeno, há uma qualidade, isto é, sua primeiridade. Mas a qualidade é apenas uma parte do fenômeno, visto que, para existir, a qualidade tem que estar encarnada numa matéria. O fato de existir (secundidade) está nessa corporificação material. Assim sendo, Secundidade é quando o sujeito lê com compreensão e profundidade de seu conteúdo. Como exemplo: "o homem comeu banana", e na cabeça do sujeito, ele compreende que o homem comeu a banana e possivelmente visualiza os dois elementos e a ação da frase.
A palavra chave deste conceito é ocorrência, o conceito em ação. É desta forma, também, uma atualização das qualidades da primeiridade.
Terceiridade - primeiridade é a categoria que dá à experiência sua qualidade "distintiva", seu frescor, originalidade irrepetível e liberdade. Secundidade é aquilo que dá à experiência seu caráter "factual", de luta e confronto. Finalmente, Terceiridade corresponde à camada de "inteligibilidade", ou pensamento em signos, através da qual representamos e interpretamos o mundo. Por exemplo: o azul, simples e positivo azul, é o primeiro. O céu, como lugar e tempo, aqui e agora, onde se encarna o azul é um segundo. A síntese intelectual, elaboração cognitiva – o azul no céu, ou o azul do céu -, é um terceiro. A terceiridade, vai além deste espectro de estrutura verbal da oração. Ou seja, o indivíduo conecta à frase a sua experiência de vida, fornece à oração, um contexto pessoal. Pois "o homem comeu a banana" pode ser ligado à imagem de um macaco no zoológico; à cantora Carmem Miranda; ao filme King Kong; enfim, a uma série de elementos extratextuais.
Sucintamente, podemos dizer que terceiridade está ligada a nossa capacidade de previsão de futuras ocorrências da secundidade, já que não só conhecemos o acontecimento na medida de possibilidade natural, como já o vimos em acção, e como tal, já nos é intrínseco. Desta forma já podemos antecipar o que virá a acontecer.
Também para Peirce há três tipos de signos:
-
O ícone, que mantém uma relação de proximidade sensorial ou emotiva entre o signo, representação do objeto, e o objeto dinâmico em si; o signo icónico refere o objecto que denota na medida em que partilha com ele possui caracteres, caracteres esse que existem no objecto denotado independentemente da existência do signo. - exemplo: pintura, fotografia, o desenho de um boneco. É importante falar que um ícone não só pode exercer esta função como é o caso do desenho de um boneco de homem e mulher que ficam anexados à porta do banheiro indicando se é masculino ou feminino, a priori é ícone, mas também é símbolo, pois ao olhar para ele reconhecemos que ali há um banheiro e que é do gênero que o boneco representa, isto porque foi convencionado que assim seria, então ele é ícone e símbolo;
-
O índice, ou parte representada de um todo anteriormente adquirido pela experiência subjetiva ou pela herança cultural - exemplo: onde há fumaça, logo há fogo. Quer isso dizer que através de um indício (causa) tiramos conclusões. Ainda sobre o que nos diz este autor, é importante referir que «um signo, ou representamen, é qualquer coisa que está em vez de (stands for) outra coisa, «em determinado aspecto ou a qualquer título», (e que é considerado «representante» ou representação da coisa, do objecto - a matéria física) e, por último, o «interpretante» - a interpretação do objecto. Por exemplo, se estivéssemos a falar de "cadeira", o representante seria o conceito que temos de cadeira. Sucintamente, o índice é um signo que se refere ao objecto denotado em virtude de ser realmente afectado por esse objecto.
O objeto seria a cadeira em si e o interpretante o modo como relacionamos o objeto com a coisa representada, o objeto de madeira sobre o qual nos podemos sentar. Sobre isto é interessante ver a obra "One and three chairs" do artista plástico Joseph Kosuth. A principal característica do signo indicial é justamente a ligação física com seu objeto, como uma pegada é um "indício" de quem passou. A fotografia, por exemplo, é primeiramente um índice, pois é um registro da luz em determinado momento.
-
O símbolo, "é um signo que se refere ao objecto que denota em virtude de uma lei, normalmente uma associação de ideias gerais que opera no sentido de fazer com que o símbolo seja interpretado como se referindo aquele objecto".
Ver também uma exposição detalhada da rede de conceitos da semiótica peirceana em semiotica pragmaticista e pragmaticismo.
Ferdinand de Saussure
Um outro autor, considerado pai da semiologia, a vertente europeia do estudo dos signos, por ser o primeiro autor a criar essa designação e a designar o seu objeto de estudo, é Ferdinand de Saussure (1857-1913). Segundo este, a existência de signos - «a singular entidade psíquica de duas faces que cria uma relação entre um conceito (o significado) e uma imagem acústica (o significante) - conduz à necessidade de conceber uma ciência que estude a vida dos sinais no seio da vida social, envolvendo parte da psicologia social e, por conseguinte, da psicologia geral. Chamar-lhe-emos semiologia. Estudaria aquilo em que consistem os signos, que leis os regem.»
A concepção de Saussurre relativamente ao signo, ao contrário da de Peirce, distingue o mundo da representação do mundo real. Para ele, os signos (pertencentes ao mundo da representação) são compostos por significante - a parte física do signo - e pelo significado, a parte mental, o conceito. Colocando o referente (conceito correspondente ao de objecto por Peirce) no espaço real, longe da realidade da representação. Para Saussure (com excepção da onomatopeia), não existem signos motivados, ou seja, com relação de causa-efeito. Divide os signos em dois tipos: os que são relativamente motivados (a onomatopeia, que em Peirce corresponde aos ícones), e os arbitrários, em que não há motivação. Leia-se que esta motivação é a tal relação que Peirce faz entre representação e objecto e que, na visão de Saussure, parece não fazer sentido. Esta visão pode ser tida como visão de face dual. Para Saussure, existem assim dois tipos de relações no signo:
1 - as «relações sintagmáticas», as da linguagem, da fala, a relação fluida que, no discurso ou na palavra (parole), cada signo mantém em associação com o signo que está antes e com o signo que está depois, no «eixo horizontal», relações de contextualização e de presença (ex: abrir uma janela, em casa ou no computador)
2 - as «relações paradigmáticas», as «relações associativas», no «eixo vertical» em ausência, reportando-se à «língua» (ex: associarmos a palavra mãe a um determinado conceito de origem, carinho, ternura, amor, etc…), que é um registo «semântico», estável, na memória coletiva de um ser ou instrumento.
Louis Hjelmslev
Louis Hjelmslev (1899-1965) complexifica os conceitos utilizados por Saussure. Segundo Hjelmslev, e por uma questão de clareza, a expressão deverá substituir o termo saussuriano de significante, assim como o conteúdo deve substituir o de significado. Tanto a expressão como o conteúdo possuem dois aspectos, a forma e a «substância» - que em Saussure são por vezes confundidos com significante e significado. Os signos são por isso, para Hjelmslev, constituídos por quatro elementos e não dois, como propunha Saussure.
Umberto Eco
Sendo o mais proeminente europeu a usar o termo "semiótica", Umberto Eco (1932-2016), além de ser um dos que tentaram resumir de forma mais coerente todo o conhecimento anterior, procurando dissipar dúvidas e unir ideias semelhantes expostas de formas diferentes, introduziu novos conceitos relativamente aos tipos de signos que considerava existir. São os «diagramas», signos que representam relações abstractas, tais como fórmulas lógicas, químicas e algébricas; os «emblemas», figuras a que associamos conceitos (ex: cruz → cristianismo); os «desenhos», correspondentes aos ícones e às inferências naturais, os índices ou indícios de Peirce; as «equivalências arbitrárias», símbolos em Peirce e, por fim, os «sinais», como por exemplo o código da estrada, que sendo indícios, se baseiam num código ao qual estão associados um conjunto de conceitos.
Roman Jakobson
Roman Jakobson, nascido em Moscovo (Moscou PB), em 1896, introduziu o conceito das funções da linguagem:
-
a emotiva, que «denota» a carga do emissor na mensagem;
-
a injuntiva, relativa ao destinatário;
-
a referencial, relativa àquilo de que se fala;
-
a fática, relativa ao canal da comunicação;
-
a metalinguística, relativa ao código;
-
a poética, relativa à relação da mensagem consigo mesma.
Se Jakobson fala das funções da linguagem, Guiraud diferencia os códigos. E é nos códigos lógicos que está o mais importante para os signos. Nestes, ele releva os «paralinguísticos», associados a aspectos da linguagem verbal (ex: escritas alfabética, escritas ideogramáticas). Associar números a pedras é ter e ser um código deste tipo: códigos práticos, ligados às sinaléticas, às programações e a códigos de conhecimento o (ex: sinais de trânsito) e, por último, os epistemológicos, ou específicos de cada área científica.
Morris e Greimas
Morris e Algirdas Julius Greimas dizem-nos que tudo pode ser signo consoante a nossa interpretação, deixando em estado mais abrangente o conceito de signo. Porém, Morris diz-nos ainda que estes se dividem em
-
Sintáctico, ao nível da estrutura dos signos, o modo em como eles se relacionam e as suas possíveis combinações,
-
Semântico, analisando as relações entre os signos e os respectivos significados,
-
Pragmático, estudando o valor dos signos para os utilizadores, as reacções destes relativamente aos signos e o modo como os utilizamos.
Linguística e semiologia
A linguística era um dos campos da semiologia; hoje em dia, essas ciências trabalham lado a lado.
Segundo alguns autores, a semiótica nunca foi considerada parte da linguística, sendo mais natural considerar-se o contrário, posto que a língua é apenas mais um sistema de signos entre tantos. De fato, ela se desenvolveu quase exclusivamente graças ao trabalho de não-lingüistas, particularmente na França, onde é frequentemente considerada uma disciplina importante. No mundo de língua inglesa, contudo, não desfruta de praticamente nenhum reconhecimento institucional.
Embora a língua seja, normalmente, considerada o caso paradigmático do sistema de signos, grande parte da pesquisa semiótica atual se concentrou na análise de domínios tão variados como os mitos, a fotografia, o cinema, a publicidade ou os meios de comunicação. A influência do conceito linguístico central de estruturalismo, que é mais uma contribuição de Saussure, levou os semioticistas a tentar interpretações estruturalistas (ver estruturalismo) num amplo leque de fenómenos.
Objetos de estudo, como um filme ou uma estrutura de mitos, são encarados como textos que transmitem significados, sendo esses significados tomados como derivações da interação ordenada de elementos portadores de sentido, os signos, encaixados num sistema estruturado, de maneira parcialmente análoga aos elementos portadores de significado numa língua.
Quando deliberadamente enfatiza a natureza social dos sistemas de signos humanos, com exceção daqueles pertencentes à sua natureza, a semiótica tende a ser altamente crítica e abstrata. Nos últimos anos, porém, os semioticistas se voltam cada vez mais para o estudo da cultura popular, sendo hoje em dia comum o tratamento semiótico das novelas de televisão e da música popular.
Teoria semiótica da complexidade
Teoria semiótica da complexidade é uma teoria científica de âmbito ontológico que estuda a aplicação dos conceitos semióticos na análise dos sinais obtidos no domínio das ciências exatas, em particular na astrofísica.
Temas
-
Ciência - O significado da astronomia como ciência observacional; função de autocorrelação e gramática; caos e semiótica; quantificação de organização em sistemas naturais; e sistemas psicossociais.
-
Teoria do conhecimento - Produção de autonomia em sistemas psicossociais; educação científica; e arte e ciência como formas de conhecimento.
-
Arte - Ciência, arte e o conceito de Umwelt; intersemiose e arte; caos e ordem nas artes contemporâneas; e Rudolf Laban e as modernas ideias científicas sobre a complexidade.
Complexidade
Complexidade é uma noção utilizada em filosofia, epistemologia (por autores como Anthony Wilden e Edgar Morin), linguística, pedagogia, matemática, química, física, meteorologia, estatística, biologia (por Henri Atlan), sociologia, ocupação, economia, arquitetura, medicina, psicologia, informática ou em ciências da computação ou da informação. A definição varia significativamente segundo a área de conhecimento. Frequentemente é também chamada teoria da complexidade, desafio da complexidade[1], pensamento da complexidade[2] ou pensamento complexo.
Trata-se de uma visão interdisciplinar acerca dos sistemas complexos adaptativos, do comportamento emergente de muitos sistemas, da complexidade das redes, da teoria do caos, do comportamento dos sistemas distanciados do equilíbrio termodinâmico e das suas faculdades de auto-organização.
Esse movimento científico tem tido uma série de consequências não só tecnológicas mas também filosóficas. O uso do termo complexidade é portanto ainda instável e na literatura de divulgação frequentemente ocorrem usos espúrios, muito distantes do contexto científico, particularmente em abstrações ao conceito (crucial) de não linearidade.
O termo é também usado por alguns como sinônimo de epistemologia da complexidade, um ramo da filosofia da ciência inaugurado no início dos anos 1970 por Edgar Morin, Isabelle Stengers e Ilya Prigogine.[3]
Existe também uma teoria de complexidade computacional, que é um filão científico mais estável e melhor definido e que evoluiu separadamente daquele referente ao conceito de sistema não linear, mas afinal está sutilmente ligado a este.
Epistemologia da Complexidade
A epistemologia da complexidade é um ramo da epistemologia que estuda os sistemas complexos e fenômenos emergentes associados. Trata-se pois de um termo rico de significados e portanto ambíguo, que vem se afirmando nas últimas décadas sobretudo no que diz respeito à transformação em curso no mundo da pesquisa científica, em razão da crescente tendência a negar os pressupostos de linearidade nos sistemas dinâmicos e a indagar mais profundamente o seu comportamento.[4][5]
Pedro Demo, um dos pensadores brasileiros contemporâneos de maior destaque nessa temática, afirma que Edgar Morin é considerado o "fundador da ciência da complexidade" na Europa. De fato, a obra de Morin é a mais extensa e a mais profunda no que se refere à temática da epistemologia da complexidade, especialmente depois de ter concluído a série de seis livros sobre "O Método" (ver bibliografia).
Para Morin, a ciência moderna ou clássica, na busca de sua autonomia em relação ao pensamento religioso da escolástica medieval, acabou por separar-se em vez de apenas distinguir-se da filosofia, do senso comum, das artes e da política. A ciência de base quantitativa se sobrepôs então às diversas formas de conhecimento, inclusive porque favorecia interesses das classes emergentes com as revoluções burguesas. Os Estados nacionais só puderam ser organizados a partir do conhecimento estatístico, do controle quantitativo da economia, dos territórios e das populações.
Toda a industrialização serviu-se fortemente dos aspectos quantificáveis das ciências naturais na geração de tecnologias, a ponto de ter contribuído decisivamente para o surgimento da tecnociência, uma forma de conhecimento científico dirigido por critérios tecnológicos. A extensão dos critérios metodológicos das ciências naturais às ciências sociais levou à formação de um grande paradigma ocidental, que se caracteriza por ser disjuntor-e-redutor, ou seja, por separar (disjuntar) ciência e filosofia (incluindo aqui humanidades, artes e todo o conhecimento não quantificável), e por reduzir (reducionismo) o que é complexo ao que é simples (por exemplo, por meio da busca da menor parte da realidade física, os átomos, e depois as partículas dentro dos átomos).
O pensamento disjuntor-redutor simplifica a realidade e com isso ganha espaço que historicamente pertenceu ao pensamento religioso, dogmático. O pensamento disjuntor-redutor estabelece-se como um grande paradigma, aparentemente confiável. Na realidade, a física subatômica já introduziu incertezas quanto aos limites do reducionismo. A fenomenologia já mostrou as insuficiências e ingenuidades do positivismo, da pretensão de captar-se uma realidade "objetiva" independente do olhar e dos pressupostos do pesquisador. Em meados do século XX as ciências da terra, a ecologia, a cosmologia e outras formas de conhecimento começam a buscar o diálogo pluridisciplinar.
A partir de então, aquela crise que o paradigma disjuntor-redutor havia sofrido com a emergência da física subatômica (teoria da relatividade, princípio de incerteza, etc) e com a emergência da fenomenologia nas primeiras décadas do século XX é reforçada pelos diálogos multi, inter e transdisicplinares. É nesse contexto da história da ciência que emerge o pensamento complexo ou paradigma da complexidade, que visa associar sem fundir, distinguindo sem separar as diversas disciplinas e formas de ciência, assim como as diversas formas de conhecimento e inclusive outras instâncias da realidade, como Estado, Mercado e Sociedade Civil.
O pensamento complexo não se limita ao âmbito acadêmico: transborda para os diversos setores das sociedades. E com isso questiona todas as formas de pensamento unilateral, dogmático, unilateralmente quantitativo ou instrumental. A incerteza faz parte do paradigma da complexidade, como uma abertura de horizontes, e não como um princípio que imobiliza o pensamento. Pensar de forma aberta, incerta, criativa, prudente e responsável é um desafio à própria democracia. Daí a noção de democracia cognitiva, que visa estabelecer o diálogo entre as diversas formas de conhecimento. Este é o caminho do pensamento complexo, um caminho que, embora tenha diversos princípios, oriundos da antiguidade, da modernidade e da pós-modernidade, é um caminho que se faz no seu próprio transcurso, no seu próprio fazer e repensar-se continuamente.
O pensamento complexo
A complexidade e suas implicações são as bases do denominado pensamento complexo de Edgar Morin, que vê o mundo como um todo indissociável e propõe uma abordagem multidisciplinar e multirreferenciada para a construção do conhecimento. Contrapõe-se à causalidade linear por abordar os fenômenos como totalidade orgânica.
Segundo Edgar Morin (Introdução ao Pensamento Complexo, 1991:17/19): "À primeira vista, a complexidade (complexus: o que é tecido em conjunto) é um tecido de constituintes heterogêneos inseparavelmente associados: coloca o paradoxo do uno e do múltiplo. Na segunda abordagem, a complexidade é efetivamente o tecido de acontecimentos, ações, interações, retroações, determinações, acasos, que constituem o nosso mundo fenomenal. Mas então a complexidade apresenta-se com os traços inquietantes da confusão, do inextricável, da desordem no caos,da ambigüidade, da incerteza... Daí a necessidade, para o conhecimento, de pôr ordem nos fenômenos ao rejeitar a desordem, de afastar o incerto, isto é, de selecionar os elementos de ordem e de certeza, de retirar a ambigüidade, de clarificar, de distinguir, de hierarquizar... Mas tais operações, necessárias à inteligibilidade, correm o risco de a tornar cega se eliminarem os outros caracteres do complexus; e efetivamente, como o indiquei, elas tornam-nos cegos."
A proposta
A proposta da complexidade é a abordagem transdisciplinar dos fenômenos, e a mudança de paradigma, abandonando o reducionismo que tem pautado a investigação científica em todos os campos, e dando lugar à criatividade e ao caos.
Princípios
Sendo transdisciplinar, não é possível uma definição sucinta do termo e suas aplicações. Alguns dos conceitos que compõem o tecido da complexidade:
-
auto-organização
-
amplificação por flutuações
-
artificialeza
-
autoconsistência
-
autopoiese: capacidade de um sistema de organizar de tal forma que o único produto seja ele mesmo.
-
auto-semelhança
-
imprecisão
-
conectividade
-
correlação
-
criticabilidade
-
dialógica
-
emergência
-
fluxo
-
imprevisibilidade
-
inclusão
-
metadimensionalidade
-
onijetividade
-
paradoxo
-
aderência
-
potencialidade
-
retorno
-
rizomas
Temas da complexidade
Auto-organização, fractalidade e emergência
A noção de emergência está ligada à teoria dos sistemas. Um sistema constitui-se de partes interdependentes entre si, que interagem e tranformam-se mutuamente, desse modo o sistema não será definível pela soma de suas partes, mas por uma propriedade que emerge deste seu funcionamento. O estudo em separado de cada parte do sistema não levará ao entendimento do todo, esta lógica se contrapõe ao método cartesiano analítico que postulava justamente ao contrário.
Nesta perspectiva o todo é mais do que a soma das partes. Da organização de um sistema nascem padrões emergentes que podem retroagir sobre as partes. Por outro lado o todo é também menos que a soma das partes uma vez que tais propriedades emergentes possam também inibir determinadas qualidades das partes.
Mudança, evolução e realimentação
Um sistema realimentado é necessariamente um sistema dinâmico, já que deve haver uma causalidade implícita. Em um ciclo de retroação uma saída é capaz de alterar a entrada que a gerou, e, consequentemente, a si própria. Se o sistema fosse instantâneo, essa alteração implicaria uma desigualdade. Portanto em uma malha de realimentação deve haver um certo retardo na resposta dinâmica. Esse retardo ocorre devido a uma tendência do sistema de manter o estado atual mesmo com variações bruscas na entrada. Isto é, ele deve possuir uma tendência de resistência a mudanças. O que, por sua vez, significa que deve haver uma memória intrínseca a um sistema que pode sofrer realimentação
Caos, desordem e incerteza
Os trabalhos de divulgação de Ilya Prigogine talvez sejam as melhores fontes para entender rigorosamente o papel do caos e sua relação com a incerteza. As teorias do caos, popularizadas pelo "efeito borboleta", (a qual a alusão em que o bater de asas de uma borboleta no pacífico poderia causar um tufão em outro lugar distante do planeta é apenas uma alegoria estilística para a interpretação real do fenômeno), estão relacionadas à não-lineariedade e à sensibilidade às condições iniciais.
Assim, relações deterministas, às vezes muito simples, podem gerar, após muitas interações, divergências de trajetórias significativas partindo de condições iniciais muito próximas. Daí se afirmar que há um comportamento caótico, já que não há padrão para determinar no longo prazo (ou após muitas interações) qual o comportamento da trajetória a partir de condições iniciais aproximadas, ainda que para, por exemplo, 40 casas decimais! Porém, surpreendentemente, se do ponto de vista individual há o caos, muitas vezes há um padrão estatístico com relação à distribuição de probabilidade das trajetórias, o que permite alguma inteligibilidade e tratamento científico do caos.
Complexidade e Criticalidade
Complexidade é altamente ligada a fenômenos criticos[6][7][8][9]
Teoria Do Caos
A Teoria do Caos trata de sistemas complexos e dinâmicos rigorosamente deterministas, mas que apresentam um fenômeno fundamental de instabilidade chamado sensibilidade às condições iniciais que, modulando uma propriedade suplementar de recorrência, torna-os não previsíveis na prática a longo prazo.
A alta sensibilidade às condições iniciais dá ao sistema não linear a característica de instabilidade, o que faz com que seja incorretamente confundido com um sistema aleatório. A formação de uma nuvem no céu, por exemplo, pode ser desencadeada e se desenvolver com base em centenas de fatores que podem ser o calor, a pressão, a evaporação da água, os ventos,o tempo e o clima, condições do Sol, os eventos sobre a superfície e inúmeros outros. Se as condições de todos estes fatores forem conhecidas com exatidão no momento presente, o exato formato de uma nuvem no futuro pode ser previsto com exatidão. Porém, como as condições atuais exatas não são conhecidas, o comportamento futuro também é difícil de prever.
Além disso, mesmo que o número de fatores influenciando um determinado resultado seja pequeno, ainda assim a ocorrência do resultado esperado pode ser instável, desde que o sistema seja não-linear.
A conseqüência desta instabilidade dos resultados é que mesmo sistemas determinísticos (os quais tem resultados determinados por leis de evolução bem definidas) apresentem uma grande sensibilidade a perturbações (ruído) e erros, o que leva a resultados que são, na prática, imprevisíveis, embora não sejam aleatórios. Enquanto o comportamento futuro do sistema caótico pode ser determinado se as condições iniciais forem perfeitamente conhecidas, o mesmo não ocorre com um sistema aleatório. Mesmo em sistemas nos quais não há ruído, erros microscópicos na determinação do estado inicial e atual do sistema podem ser amplificados pela não linearidade ou pelo grande número de interações entre os componentes, levando a um comportamento futuro difícil de prever. É o que se chama de "Caos Determinístico"
A dificuldade de se conhecer o estado presente com exatidão leva à necessidade de modelar o sistema não linear como aleatório, em algumas situações, quando os detalhes do comportamento não são de interesse, embora ele seja, na realidade, determinístico. Ou seja, embora a descrição da mecânica clássica e relativística seja determinística, a complexidade da maioria dos sistemas leva a uma abordagem na qual a maioria dos graus de liberdade microscópicos é tratada como ruído (variáveis estocásticas, ou seja, que apresentam valores aleatórios) e apenas algumas variáveis são analisadas com uma lei de comportamento determinada, mais simples, sujeita à ação deste ruído. Este método foi utilizado por Einstein e Paul Langevin no início do século XX para compreender o Movimento Browniano.
Pois, é exatamente isso que os matemáticos querem prever: o que as pessoas pensam que é acaso mas, na realidade, é um fenômeno que pode ser representado por equações. Alguns pesquisadores já conseguiram chegar a algumas equações capazes de simular o resultado de sistemas como esses, ainda assim, a maior parte desses cálculos prevê um mínimo de constância dentro do sistema, o que normalmente não ocorre na natureza.
Os cálculos envolvendo a Teoria do Caos são utilizados para descrever e entender fenômenos meteorológicos, crescimento de populações, variações no mercado financeiro e movimentos de placas tectônicas, entre outros. Uma das mais conhecidas bases da teoria é o chamado "efeito borboleta", teorizado pelo matemático Edward Lorenz, em 1963.
Antecedentes
A ideia é que uma pequena variação nas condições em determinado ponto de um sistema dinâmico pode ter consequências de proporções inimagináveis. À exemplo, o bater de asas de uma borboleta no Brasil pode provocar um furacão no Texas.
Galileu, Newton e Laplace
Galileu Galilei introduziu algumas das bases da metodologia científica presas à simplicidade da obtenção de resultados. Segundo aquela metodologia, a ciência continuou gradualmente a sua expansão em direção à determinação das realidades físicas.
Com Isaac Newton, surgiram as leis que regem a Mecânica determinista Clássica e a determinação de que a posição espacial de duas massas gravitacionais poderia ser prevista. Havendo portanto uma explicação plausível da órbita terrestre em relação ao Sol.
Portanto, o comportamento de três corpos gravitacionais poderia ser perfeitamente previsível, apesar do trabalho aumentado em função de mais dados inseridos para a execução dos cálculos necessários à determinação de posição.
Porém, ao se acrescentarem mais corpos massivos para as determinações de posições, começaram a ocorrer certos desvios imprevisíveis. Newton traduziu estes desvios ou efeitos através de equações diferenciais que mostravam que o sistema em sua evolução tendia para a formação de um sistema de equações diferenciais não-lineares.
Gravitação
Ao se encontrar no estudo do sistema gravitacional equações diferenciais não lineares, estas se tornavam impossíveis de ser resolvidas.
Laplace afirmou que “...(sic) uma inteligência conhecendo todas as variáveis universais em determinado momento, poderia compor numa só fórmula matemática a unificação de todos os movimentos do Universo".
Consequentemente deixariam de existir para esta inteligência o passado e o futuro, pois aos seus olhos todos os eventos seriam resultantes do momento presente.”
Perseguindo a harmonia da física de então, na busca de uma resposta para a unificação da natureza, Laplace formulou e desenvolveu os princípios da teoria das probabilidades, trabalhou nas equações diferenciais, criou a transformada de Laplace além de estudar a equação de Laplace.
Henri Poincaré
Henri Poincaré em 1880 aproximadamente, pesquisou os problemas relacionados à impossibilidade de resolução das equações diferenciais não lineares, na busca das leis da uniformidade e da unificação dos sistemas físicos. Seu objetivo era descrever o que ocorreria matematicamente quando da introdução de uma massa gravitacional complementar num sistema duplo, isto é, passando a análise de dois para três corpos gravitacionais interagindo mutuamente. Verificou que numa análise mais ampla, não se atendo a detalhes quantitativos e fazendo comparações qualitativas, isto é, enxergando o sistema como um todo. Acabou descobrindo que os sistemas de massas gravitacionais triplas evoluíam sempre para formas cujo equilíbrio era irregular. As órbitas mútuas tendiam a não ser periódicas, tornavam-se complexas e irregulares.
Poincaré descobriu que ao invés de existirem órbitas ordenadas, equilibradas e regulares, ou um sistema equilibrado e harmônico, o que ocorriam eram sistemas verdadeiramente desestabilizados, onde o que prevaleceria não era a ordem natural, e sim o caos, a confusão, pois os movimentos se tornavam aparentemente aleatórios.
Os resultados observados que levavam à confusão e à desarmonia, não condiziam com a harmonia que ocorria na mecânica clássica. Poincaré neste seu trabalho acabou por descobrir uma possibilidade da existência de um sistema desordenado, com variáveis ao acaso. Na época não houve um interesse prático na sua teoria de órbitas irregulares, sendo muitas vezes considerada a teoria uma aberração matemática. Continuaram havendo alguns estudos esparsos por outros matemáticos, porém como curiosidade sobre os Sistemas dinâmicos não-lineares.
Teoria
Um conjunto de objetos estudados que se inter-relacionem é chamado de sistema. Entre os sistemas consideram-se duas categorias: lineares e não-lineares, que divergem entre si na sua relação de causa e efeito. Na primeira, a resposta a um distúrbio é diretamente proporcional à intensidade deste. Já na segunda, a resposta não é necessariamente proporcional à intensidade do distúrbio, e é esta a categoria de sistemas que servem de objeto à teoria do caos, mais conhecidos como sistemas dinâmicos não-lineares.
Esta teoria estuda o comportamento de sistemas cujo estado futuro é difícil de prever.
Uma das ideias centrais desta teoria, é que os comportamentos casuais também são governados por leis e que estas podem predizer dois resultados para uma entrada de dados. O primeiro é uma resposta ordenada, lisa e cognitiva. Sendo que o futuro dos eventos ocorre dentro de margens estatísticas de erros previsíveis. O segundo é uma resposta também ordenada, onde porém a resultante futura dos eventos é corrugada, onde a superfície é áspera, caótica, ou seja, ocorre uma contradição neste ponto onde é previsível que os resultados de um determinado sistema serão caóticos.
Efeito Borboleta
Ao efeito da realimentação do erro foi chamado mais tarde por Lorenz de Efeito Borboleta, ou seja, uma dependência sensível dos resultados finais às condições iniciais da alimentação dos dados. Assim, havendo uma distância, mesmo que ínfima, entre dois pontos iniciais diferentes, depois de um tempo os pontos estariam completamente separados e irreconhecíveis.
Normalmente este efeito é ilustrado com a noção de que o bater das asas de uma borboleta num extremo do globo terrestre, pode provocar uma tormenta no outro extremo no intervalo de tempo de semanas.
É por esse motivo que as previsões meteorológicas possuem erros. Para evitar tais erros precisaríamos de medidas exatas de muitas variáveis (pressão, temperatura...) em praticamente todos os pontos do globo terrestre, o que, atualmente, é impraticável. Além da falta de medidas, as medidas tomadas possuem ainda um certo grau de erro, gerando os problemas que conhecemos para as previsões.
Atratores e Fractais
Os fractais são figuras da geometria não-Euclidiana. A partir dos estados de um determinado sistema onde existem variáveis tais como massa, pressão, temperatura, velocidade, posição, etc, estes podem ser representados por coordenadas, num determinado espaço cuja configuração pode ser considerada multidimensional, de um ponto cujas coordenadas são determinadas pelas variáveis. Na física clássica podemos descrever o comportamento de um sistema dinâmico geometricamente como o movimento de um atrator. Já nos sistemas considerados caóticos, os atratores são denominados atratores estranhos, isto ocorre pelo elevado grau de incerteza dos resultados destes sistemas.
Os atratores estranhos devem ter estruturas detalhadas em todas as escalas de magnificação. Em função disto foi desenvolvido um modelo conceitual chamado fractal, que tem uma forma geométrica complexa e exibe uma formação estrutural que tem uma propriedade chamada de auto-similaridade. Estes sistemas complexos tornaram possível o progresso no processamento de dados gráfico.
Determinismo
Determinismo (do verbo determinar, do latim determinare: a adição do prefixo de -"para fora" - e terminare - terminar, limitar, finalizar.[1]) é a teoria filosófica de que todo acontecimento (inclusive o mental) é explicado pela determinação, ou seja, por relações de causalidade.
Embora em seu sentido mais vulgar determinismo se refira a uma causalidade reducionista (redução de todos os fenômenos do universo, por exemplo, à mecânica ou à química), não necessariamente é sinônimo de reducionismo. Há vários tipos de determinismo, cada um definido pelo modo como determinação e causalidade são conceitualizados.
Tipos de Determinismo
-
Pré-determinismo: se, como Laplace, o deísmo e o behaviorismo, supuséssemos que todo efeito já está completamente presente na causa, temos um determinismo mecanicista onde a determinação é colocada no passado, numa cadeia causal totalmente explicada pelas condições iniciais do universo.
-
Pós-determinismo: se, como na teleologia, supuséssemos que toda causalidade do universo é determinada por alguma finalidade, temos um determinismo mecanicista onde a determinação é posta no futuro pela imaginação de alguma entidade exterior ao universo causal (Deus).
-
Co-determinismo: se, como na teoria do caos, na teoria da emergência ou no conceito de rizoma, supuséssemos que nem todo efeito está totalmente contido na causa, isto é, que o próprio efeito pode simultaneamente interagir (causalmente) com outros efeitos, podendo inclusive acarretar um nível de realidade diferente do nível das causas anteriores (por exemplo, a interação no nível molecular formando um outro nível de realidade, a vida, ou a interação entre indivíduos formando um outro nível de realidade, a sociedade), temos um determinismo onde a determinação é colocada no presente ou na simultaneidade dos processos.
Determinismo e liberdade
Os críticos do determinismo reivindicam a não-causalidade para justificar o livre-arbítrio e a livre escolha [2], geralmente atribuindo aos deterministas um mecanicismo ou fatalismotal como no pré-determinismo e no pós-determinismo citados acima [3]. O que acima de tudo diferencia os deterministas, quaisquer que sejam, de seus críticos é a afirmação destes últimos de que a alma, a vontade, o desejo e a escolha existem num universo à parte, separado do universo causal.
Para os críticos do determinismo, só essa posição dominante e exterior da alma pode explicar a liberdade. No entanto, há quem considere que essa crítica não leva em conta o terceiro exemplo de determinismo (co-determinismo), que reconhece modos de causalidade que engendram vários níveis de realidade (por exemplo, molecular, biológico, psíquico, social, planetário...), cada qual com uma consistência que lhe dá autonomia, jamais cessando, porém, de interagir com os outros níveis.
Filósofos tais como Nicolai Hartmann, Deleuze, Espinoza e Nietzsche não veem contradição alguma entre determinismo radical e liberdade. Para Deleuze, liberdade não é livre escolha nem livre-arbítrio, mas sim criação. Somos livres porque somos imanentes ao mundo determinista, mundo onde não existe nada que seja singularmente determinado que não seja ao mesmo tempo singularmente determinante. Se supuséssemos que somos exteriores ao mundo determinista, cai-se num determinismo inerte passadista (pré-determinismo), onde, segundo ele, só nos resta a liberdade empobrecida chamada livre-arbítrio e livre escolha, que é pré-determinismo porque toda escolha e arbítrio se dá entre duas ou mais entidades dadas, isto é, já determinadas, já criadas. [4][5]
Relativismo
O relativismo é o conceito de que os pontos de vista não têm uma verdade absoluta ou validade intrínsecas, mas eles têm apenas um valor relativo, subjetivo, de acordo com diferenças na percepção e consideração.
Desenvolvimento
O relativismo, dessa forma, leva em consideração diversos tipos de análise, mesmo sendo análises aparentemente contraditórias. As diversas culturas humanas geram diferentes padrões segundo os quais as avaliações são geradas. Max Weber, em suas obras sobre epistemologia, abre espaço para o relativismo nas ciências da cultura quando diz que a ciência é verdade para todos que querem a verdade, ou seja, por mais diferentes que sejam as análises geradas por pontos de vista culturais diferentes, elas sempre serão cientificamente verdadeiras, enquanto não refutadas.
Assim podemos concluir que o Relativismo é um termo filosófico que se baseia na relatividade do conhecimento e repudia qualquer verdade ou valor absoluto. Todo ponto de vista é válido.
Na filosofia moderna o relativismo por vezes assume a denominação de "relativismo cético", relação feita com sua crença na impossibilidade do pensador ou qualquer ser humano chegar a uma verdade objetiva, muito menos absoluta.
Nietzsche na sua obra "A Gaia Ciência", no tópico intitulado "Nosso novo infinito", assim afirma: "o mundo para nós tornou-se novamente infinito no sentido de que não podemos negar a possibilidade de se prestar a uma infinidade de interpretações"; frase que Michel Foucault objeta: "Se a interpretação nunca se pode completar, é porque simplesmente não há nada a interpretar...pois, no fundo, tudo já é interpretação".
No diálogo platônico "Teeteto", atribui-se a Protágoras uma concepção relativista do conhecimento, por haver afirmado que "o homem é a medida de todas as coisas". Nesse caso, cada um de nós é, por assim dizer, o juiz daquilo que é e daquilo que não é. Sócrates levanta então uma série de objeções contra essa forma radical de relativismo subjetivista, tentando mostrar a incoerência interna da suposição de que o que parece verdadeiro a alguém é verdadeiro para ele ou ela. Se são verdadeiras todas as opiniões mantidas por qualquer pessoa, então também é preciso reconhecer a verdade da opinião do oponente de Protágoras que considera que o relativismo é falso. Ou seja, se o relativismo é verdadeiro, então ele é falso (desde que alguém o considere falso). Haveria, por assim dizer, uma auto-refutação (ou uma autodestruição) do relativismo cognitivo.[1]
Em nossos dias, o relativismo cognitivo tem assumido várias formas distintas. Nas versões mais radicais, entende-se que quaisquer opiniões são igualmente justificáveis, dadas suas respectivas regras de evidência, e que não há questão objetiva sobre qual conjunto de regras deve ser preferido ("igualitarismo cognitivo" ou tese da "equipolência das razões"). Em suma, é possível dar boas razões tanto para se admitir quanto para se recusar qualquer opinião. E, portanto, o procedimento de dar boas razões nunca permite decidir entre opiniões rivais, nunca nos obriga a substituir uma crença por outra. Nesse caso, uma crítica do relativismo cognitivo pode ser feita de acordo com a seguinte linha argumentativa (seguida, por exemplo, por Paul Boghossian em "What the Sokal Hoax Ought to Teach Us"): se toda regra de evidência é tão boa quanto qualquer outra, então para que uma opinião qualquer seja tomada como justificada basta formular um conjunto apropriado de regras em relação ao qual ela está justificada. Em particular, a opinião de que nem toda regra de evidência é tão boa quanto qualquer outra deve poder ser igualmente justificada. (E o relativista assim não consegue mostrar, mas deveria mostrar, que a sua posição é melhor que a de seu oponente.) Uma alternativa seria dizer que algumas regras de evidência são melhores do que outras; mas então deveria haver fatos independentes de perspectiva sobre o que as torna melhores do que outras, e nesse caso estaríamos assumindo a falsidade do relativismo cognitivo.
Em contraposição, há espécies de relativismo que são bastante triviais, como, por exemplo, a tese da diversidade (também chamada de "relativismo cultural"): consiste em registrar que diferentes pessoas mantêm crenças diferentes; que as opiniões variam de comunidade para comunidade, de uma época para outra. Nesse caso, não se afirma que tais crenças ou opiniões sejam verdadeiras ou justificadas, e portanto não se tem ainda um relativismo cognitivo (epistemológico). Tal diversidade de crenças é plenamente compatível com uma visão absolutista ou objetivista do conhecimento.
Dentro deste conceito antropófago, o relativismo cultural é um ponto de vista extremo oposto ao etnocentrismo, que leva em consideração apenas um ponto de vista em detrimento aos demais. Porém, os críticos dessa visão apontam que o relativismo torna impossível um avanço científico nas ciências da cultura na medida em que coloca todos os tipos de análise, absurdas ou não, em igualdade de veracidade.
Todavia, não são essas formas de relativismo (extremamente fortes ou fracas) que encontramos nas filosofias de Kuhn, Rorty e até mesmo Feyerabend (em alguns de seus últimos escritos). O que eles sugerem, a partir de evidências históricas, é que as preferências por certos padrões de investigação, por certos objetivos cognitivos variam com o tempo e dependem do contexto considerado. E mais do que isso: sua validade e autoridade dependem da prática estabelecida no interior de uma comunidade. Eles questionam as tentativas de codificar a racionalidade científica mediante um certo conjunto de regras metodológicas que guiam a atividade científica; mas não apenas isso, questionam também a tese de que a racionalidade científica permaneça em grande parte estável e invariante com o passar do tempo, apesar das novas descobertas e das mudanças sociais e culturais. Eles criticam o que Shapere chamou "essencialismo": a suposição de que as marcas características da racionalidade científica não estão elas próprias sujeitas a mudanças e revisões. Eles reconhecem que as normas do que conta como "boa ciência" também se transformam ao longo da história e não devem ser consideradas como uma estrutura rígida que não sofre mudanças substanciais.
No caso específico das ciências naturais, eles reconhecem, fazendo justiça à história da ciência, que as mudanças e as divergências envolvem não apenas as teorias (não apenas afirmações fatuais), mas também os critérios e os valores característicos da prática científica. Por exemplo, é possível, em certas ocasiões, justificar uma teoria T1 com respeito aos princípios e valores de um sistema evidencial E1 (por exemplo, que permite hipóteses sobre inobserváveis) e ainda justificar uma teoria alternativa T2 (incompatível com T1) com respeito aos princípios e valores de outro sistema evidencial E2 (por exemplo, do empirismo indutivista), mesmo na ausência de uma fundamentação independente que sem petição de princípio "favoreça inequivocamente" E1 ou E2 (ou seja, um caso de incomensurabilidade) A justificação de uma crença é sempre relativa a um sistema evidencial e, havendo uma disputa entre E1 e E2, poderia não haver acordo racional quanto à aceitação de T1 ou T2, mesmo que tivéssemos à disposição todas as evidências possíveis.
Por outro lado, quando se dá preferência a um sistema evidencial a partir de um meta-sistema dominante, tal escolha racional não pressupõe que esse meta-sistema represente uma visão objetiva ou correta (em todo tempo e lugar) que permita justificar de modo absoluto.
Quando ocorre de abandonarmos a ciência normal anterior, de transcendermos nossa própria tradição de pesquisa, não somos levados a um "ponto arquimediano", fora do espaço e do tempo, que defina absolutamente o que deva ser racional, visto que a própria racionalidade científica pode transformar-se no processo evolutivo da ciência. Como diz Feyerabend (1993), os padrões de um debate científico só parecem ser "objetivos" porque se omite a referência à tradição considerada, ao grupo de adeptos que os utilizam.
Assim sendo, o relativismo cognitivo não consiste apenas em afirmar que a verdade (ou a justificação) de toda crença é relativa a princípios e padrões de um sistema de regras de evidência; trata-se ainda de recusar a suposição de um sistema absoluto, neutro (independente) e universal em relação ao qual toda crença possa ser julgada. Nesse sentido, o relativista não atribui "estatuto privilegiado" a nenhuma visão particular, nem mesmo ao relativismo.
O relativista não pode impedir que o absolutista sustente que o relativismo é falso; mas ainda assim é permitido ao relativista manter a preferência por sua posição (que a seus olhos se "salienta" em relação às demais), pois (segundo o relativista) o absolutista também não tem como evitar que o relativista se mantenha relativista. As tentativas de mostrar que o relativismo é inconsistente (ou se auto-refuta) baseiam-se na suposição de que o relativista deva apresentar uma defesa em que sua posição se mostre, sem petição de princípio, melhor que a de seu oponente e possa compeli-lo a optar pelo relativismo. Mas o relativista consistentemente admite que não é só o relativismo que tem boas razões em seu favor; também o absolutista pode ter suas boas razões para manter-se em tal posição, numa típica situação de incomensurabilidade. Enfim, não há nada de paradoxal em o relativismo ser mantido por uns e não por outros, pois ninguém está obrigado a aceitar todas as opiniões dos outros como sendo verdadeiras.
Por exemplo, um relativista poderia acreditar que a Terra gira em torno de si mesma e que é falso que está fixa, ao mesmo tempo em que está ciente de que alguém acredita que ela se mantenha fixa. (Harré e Krausz, 1996, p. 98) O que o relativista tenciona é, nas palavras de Goodman, converter alguém ao seu ponto de vista, sem tentar fundamentar absolutamente esse seu ponto de vista. O que ele diz é: "Veja como as pessoas naquela época tinham uma outra concepção de mundo. Se você estivesse no lugar delas, não manteria suas crenças atuais". Com efeito, o relativista não se obriga a demonstrar que a partir de certas premissas segue-se inexoravelmente a verdade do relativismo.[2]
