Mostrar mensagens com a etiqueta matemática. Mostrar todas as mensagens
Mostrar mensagens com a etiqueta matemática. Mostrar todas as mensagens

setembro 24, 2024

Analytical vs. what's possible

Truth is much too complicated to allow anything but approximations. -- John Von Neumann

outubro 01, 2012


  • João Neto: Do you think math concepts exist independently of persons (aka, mathematical platonism)?
  • Alexander Nikitin: Define 'exist'. --- 
  • JN: Well, I overload the word 'exist' with two meanings: (i) existence independently of persons (let's call it exist-1) and, (ii) existence due to persons (exist-2). It's the separation of Maps and the Territory. 
  • AN: You can argue that only mind exist. Everything else are just ideas in your mind. Then you have an idea of natural numbers in your head. And you have an idea of a set of axioms and deduction rules that define your space of natural numbers. Then you start doing different things with your natural numbers following the rules and you find that the space has a structure and properties that depend on those axioms and rules only and nothing else in your mind. Your mind can do whatever it wants. It can have any other ideas, feelings and states, but whenever it follows the axioms and rules it always gets the same results. Does that mean that there is something that exists independently of your mind? 
  • JN:  But there is evidence against solipsism: we have lots of data from our senses and tech extensions. And my mind cannot do whatever it wants, especially when I'm driving :-) We are more than one human, why would one single mind be special? And if we assume two or more minds (a belief that literally every one follows) then how could we explain the coincidence of sense data? The belief that 'only mind exist' does not help us at all, it dissolves everything and give us nothing. 
  • AN: If you believe that the 'real' world exists and math is just an artifact of human brain activity. Then notice several things: (1) You can define a mathematical system as purely abstract and symbolical without any attempts to model anything 'real'. You can even ask a computer to generate a random set of symbols, axioms and rules for you to exclude any 'subconscious' mapping to anything real; (2) You can give that math system to any other people and/or computers and notice that if they follow the rules they always get the same results regardless of the properties of their minds; (3) If you eventually manage to map your system to something 'real' you will notice another strange thing: the results of physical experiments will always follow predictions derived from the system once the mapping has been established, but it NEVER work in the opposite direction - physical results NEVER disprove any conclusions derived from the axioms and rules of the math system. They can prove that the mapping was wrong, but they can't 'bend' the 'truths' of the math system. As we see math is self-sufficient. Substrate independent. And physics always follows math. Then what is more 'real'? 
  • JN: The first and second point also work for board games. And games can be formalized as math objects. However, defending that, say, Chess exist-0 is a very strange assertion for me. I don't see the relevance of the third point. Some math mappings are adequate to formalize scientific models (since there are infinite mathematical models, only a vanishing part of them are really useful). And, sure, enough counter-evidence can cancel the previous adequacy between model and data. So what? Why would we want to use data to bend Math? We just try to find or create another Math model that does the trick. They are tools just like anything else. We use many maps/models. We could imagine a spectrum from totally objective to totally subjective. Humans developed a discipline to deal with those at the objective extreme of that spectrum and called it Math (Physics, which is just another family of models, is a close neighbor). 
  • AN: The third point is important because it tells us that math is not just a map. It has predictive power. A map doesn't give you more information than you already know from your 'real' data. It shows you only that part of the territory which you already have experienced. Once you get mathematical model you instantly know everything about your territory. All human engineering is based on this idea. Every day we build bridges, planes, skyscrapers - 'real' objects that never existed before - and we can do it successfully because we rely on the empirical fact that once we get the math right we can be sure that the 'real' system's behaviour will follow the math. Our experience tells us that the 'real' world is not random. It follows certain rules. That means that the rules exist. The rules are abstract concepts they are not a part of the physical world because they define it. So if you believe that the world is not random then you should accept that abstract concepts can exist independently of anything in the 'real' world. I asked you to define 'exist' in the beginning because abstract concepts don't exist in the same sense as 'real' things. We can not put them in any specific place and point in time. They exist outside of space-time. I think I was not clear from the beginning. My view is not just that abstract mathematical objects exist. My belief is that mathematics is the only thing that exists. Our 'real' world is just one of all possible mathematical systems that has 'self-aware' objects that precept their environment as 'real'. That's all. 
  • JN: When you say that the fundamental basis is Math, the only thing that exists, and outside space-time, you are putting yourself into a position that cannot be settled by evidence. Which is not unreasonable since we are talking metaphysics. I recently already read similar arguments from people like Bill Taylor, Massimo Pigliucci or Steve Landsburg (all quite clever chaps). I think we cannot possible breach the abyss between the Territory and the Map (for me, we are entirely Map denizens). I just don't like positions which are 100% argument and 0% evidence. So, I try to minimize my own 100% argument beliefs: I don't assume anything from the Territory except that it generates events. And that's because we are able to measure those events (these are partial measures due to the limitations of our sense apparatus). These events, as you said, do have some regularities that we adapt ourselves to them by customs and culture, and formalize some into scientific laws. Why there are regularities? I don't know. Nobody knows (anyway, as far as we know people would be impossible in a more random universe). It's a bit like Hume's guillotine for ethics, there's an ontological guillotine between existence-0 and existence-1. I would bet that no one will ever cross it (in fact, from my position, that does not even make sense). Now, when you say: "Our experience tells us that the 'real' world is not random. It follows certain rules. That means that the rules exist." I think you are falling into Whitehead's Fallacy of Misplaced Concreteness (aka as ET Jayne's Mind Projection Fallacy). Rules imho only exist-1 in our minds. Perhaps using a less objective example, I can explain it better: humans share lots of cognitive bias. We can extract rules from well-made psychological studies. But we don't assume that these rules exist outside its scientific context. For me, the same happens with electrons, QM, etc. I see some wisdom in the "Shut Up and Calculate" attitude. In this case, we can only appreciate each other arguments. At the end of the day, we are confronting aesthetic positions not truly empirical ones.

junho 23, 2011

Math Doodling


Vi Hart - Mathemusician

março 29, 2011

Exploração

Por volta de 1990, sentado à frente de um então poderoso Intel 80486, lembro-me ainda do prazer de explorar os infinitos interstícios do conjunto de Mandelbrot com o velhinho Fractint (software que ainda existe!). Deixo-vos um pouco dessa sensação, agora actualizada a 3D, na exploração do Mandelbox:

dezembro 14, 2010

Separação

A matemática não produz resultados que tenham necessariamente a ver com o mundo real. Os seus teoremas e demonstrações são sobre objectos ideais, enquanto nós lidaremos sempre com aproximações e isso é já todo um mundo de distância. É arriscado forçar as conclusões matemáticas a eventos da realidade física, social e cognitiva. Há uma fronteira assimptótica entre a certeza e o impossível por um lado, e as probabilidades por outro. A dedução é a ferramenta para lidar com as primeiras e ao seu uso chamamos matemática. A indução é a ferramenta para lidar com as segundas e ao seu uso designamos método científico.

novembro 13, 2010

Pendor

«We don't start out with a moral duty to "reduce bias", because biases are bad and evil and Just Not Done. This is the sort of thinking someone might end up with if they acquired a deontological duty of "rationality" by social osmosis, which leads to people trying to execute techniques without appreciating the reason for them. [...] Rather, we want to get to the truth, for whatever reason, and we find various obstacles getting in the way of our goal. These obstacles are not wholly dissimilar to each other - for example, there are obstacles that have to do with not having enough computing power available, or information being expensive. It so happens that a large group of obstacles seem to have a certain character in common - to cluster in a region of obstacle-to-truth space - and this cluster has been labeled "biases".» Eliezer Yudkowsky, Less Wrong

junho 21, 2010

Adiar

Seja a busca. Seja da axiomatização da matemática, dos princípios da física ou dos fundamentos da ética, paramos sempre na questão das definições. Por onde começar? Para evitar a circularidade ou a regressão infinita, é necessário criar uma base de trabalho, um conjunto de preceitos flexíveis, expressivos e coerentes e trabalhar a partir daí. Se um preceito pode ser descrito por outro mais simples e abrangente, se corrigir problemas ou limitações, melhor, senão esperamos pela próxima revisão. Enquanto isso, para cada teorema, experiência ou acto de justiça conquistado, fortalecemos a confiança na nossa escolha e adiamos, o quanto possível, a catástrofe.

fevereiro 18, 2010

Axiomas II

Na Matemática procura-se axiomatizar as disciplinas que a compõem (como a geometria, a aritmética ou as probabilidades). As características que os axiomas têm de possuir são a coerência e a expressividade. Elas focam o aspecto da utilidade da respectiva disciplina (axiomas incoerentes demonstram qualquer coisa e o seu contrário, pouca expressividade amputa a aplicabilidade do sistema) não sendo suposto os axiomas reflectirem alguma verdade subjacente. Assim, certos axiomas não são nada evidentes (e.g., o axioma da escolha) e há disciplinas que usam axiomas opostos (e.g., as geometrias euclidiana e não-euclidianas).

Pode esta atitude ser aproveitada na ética ou na epistemologia? Sejam os dois seguintes axiomas: "Todas as pessoas devem ter direitos iguais" e "Existe uma realidade objectiva". Seguindo o raciocínio anterior, não teriam de ser evidentes mas sim coerentes e expressivos (a expressividade, aqui, corresponde ao que podemos obter com a sua adopção). E se há argumentos fortes a favor da coerência destes axiomas, a evidência histórica é indiscutível em relação às vantagens obtidas do seu uso. O suficiente, creio, para os aceitarmos como axiomas mesmo que, para os mais cépticos ou mais cínicos, eles não se mostrem óbvios.

fevereiro 11, 2010

Axiomas I

"Ask a beginning philosophy of mathematics student why we believe the theorems of mathematics and you are likely to hear, "because we have proofs!" The more sophisticated might add that those proofs are based on true axioms, and that our rules of inference preserve truth. The next question, naturally, is why we believe the axioms, and here the response will usually be that they are "obvious", or "self-evident", that to deny them is "to contradict oneself" or "to commit a crime against the intellect". Again, the more sophisticated might prefer to say that the axioms are "laws of logic" or "implicit definitions" or "conceptual truths" or some such thing.

Unfortunately, heartwarming answers along these lines are no longer tenable (if they ever were). On the one hand, assumptions once thought to be self-evident have turned out to be debatable, like the law of the excluded middle, or outright false, like the idea that every property determines a set. Conversely, the axiomatization of set theory has led to the consideration of axiom candidates that no one finds obvious, not even their staunchest supporters. In such cases, we find the methodology has more in common with the natural scientist's hypotheses formation and testing than the caricature of the mathematician writing down a few obvious truths and preceeding to draw logical consequences. [...] The fact that these few axioms [of set theory] are commonly enshrined in the opening pages of mathematics texts should be viewed as an historical accident, not a sign of their privileged epistemological or metaphysical status." Believing the Axioms, Penelope Maddy (1987)

julho 06, 2009

Três E's

Para muitos dos problemas actuais há três áreas do saber fulcrais para sermos capazes de analisar as informações que nos estão disponíveis e formar uma opinião crítica. Elas são a Estatística, a Economia e a Ética. Vejamos brevemente cada uma. A matemática como é dada presentemente, depois da aritmética, geometria e álgebra, tem muito do seu tempo atribuído ao estudo das funções, dos limites e do contínuo, i.e., das bases da análise e do cálculo que, apesar da sua importância na tecnologia e em muitas ciências, não é relevante no dia-a-dia da maioria das pessoas e, deste modo, fornece argumentos à sua falta de utilidade prática. Porém, as noções de probabilidade, os defeitos e virtudes do aleatório e da informação incompleta, as estimativas e outros conceitos relacionados encontram-se diariamente nos jornais, na recolha e avaliação dos factos, nas decisões legais, médicas ou políticas. E sendo conceitos que os seres humanos têm dificuldade inata (estudada e documentada) em analisar e comparar, mais um motivo haveria para a sua relevância e urgência. Já a importância da Economia, numa sociedade complexa como a nossa, onde decisões ideológicas que sacrificam a razão económica só não são consideradas crime (nos cenários aquém da catástrofe explícita) pela nossa razoável ignorância nesta área. Mesmo que diferentes prioridades económicas sejam resultado de políticas igualmente defensáveis (por exemplo, investir mais na saúde do que na educação, ou vice versa), outras decisões há, populares, eleitoralistas, sectoriais, que são objectivamente prejudiciais à riqueza comum da sociedade, favorecendo poucos e prejudicando muitos. Somente uma população informada do ABC económico seria capaz de distinguir estes tipos de decisões e impedir políticas empobrecedoras que, deste modo, escapam ao escrutínio público. Finalmente, a Ética: aprender os fundamentos deste saber, analisar a sua história passada para melhor ver as limitações do presente, entender o quão relevante é a liberdade do outro e reflectir nos argumentos sobre a justiça, a igualdade política ou a dimensão e as restrições do estado. Tudo isto é essencial para esclarecer e justificar uma base às questões e problemas que se nos deparam como indivíduos, como elementos de maiorias e minorias, como sociedade. É uma coincidência todas começarem por E mas a Estatística, a Economia e a Ética possuem outra coisa em comum e esta não é por acaso: todas são exercícios racionais sobre recursos limitados. Também, nesse aspecto, são pontes importantes entre nós e a realidade que gerimos, dádivas a esse difícil de se ser adulto.

março 11, 2008

Natureza Fractal



O rio Nilo, já bem dentro de África, a lembrar uma estrutura fractal do conjunto de Mandelbrot.

março 29, 2007

O problema da auto-análise

Um dos principais nomes da Matemática do Século XX é, sem dúvida, Gödel. O seu nome ficará na história pelo teorema que lhe tem o nome, e que determina - através de uma demonstração complicadíssima - que qualquer sistema axiomático minimamente complexo não pode ser coerente (algo obrigatório) e completo (algo que se desejava). O génio de Turing, poucos anos depois, traduziu esta questão numa forma muito mais simples: o Halting Problem. Ambos os teoremas são equivalentes. Se para a Matemática, ou melhor dizendo, para a praxis da Matemática, o teorema de Gödel é um horizonte 'monstruoso' o qual raramente se entra em conta, o Halting Problem vai ao fundo da Ciência da Computação: ele revela num problema comum (não é possível determinar, em geral, se um programa com certos dados iniciais termina ou não a sua computação) as limitações intrínsecas dos computadores. Nesta conversa apresento um problema semelhante mais perto da metáfora memética: é teoricamente impossível a um antivírus saber, no geral, se ele próprio está infectado. Esta última questão - construindo agora uma ponte sempre arriscada e etérea entre computação e pensamento humano - lembra-me um problema aflitivo: como pode uma pessoa saber que está a enlouquecer? Como usar a própria mente para determinar incoerências? Que processo ou disciplina mental pode um cérebro desenvolver para detectar uma falha no processo cognitivo? A meu ver, em geral, este tipo de auto-análise está para além da capacidade cognitiva de qualquer pessoa isolada, indicando-nos, assim, um limite ao nosso próprio conhecimento, um nosso Halting Problem. [postado igualmente no WebQualia]

junho 14, 2005

Matemática vs. Ciência

A Matemática não é uma Ciência. A Matemática cria verdades por definição. Nesta sinfonia de padrões, tudo é tautologia. Um teorema não é uma invenção, é um quase óbvio nesse fio de implicações chamado demonstração. Na Ciência não há verdades dessas. Na Ciência não há verdades. Há somente imagens que explicam fragmentos do imenso da realidade. Nela, as teorias não são verdades por definição, são modelos, ferramentas que ajudam a lidar com os padrões de uma natureza não totalmente caótica. Na Matemática qualquer lado fraco é motivo de desconfiança, qualquer incoerência é mortal. Na Ciência, o que fica por explicar é tanto garantia contra o dogma como direcção de caminho.

junho 21, 2004

Física e Computação: Qual é a ponte? Quais são as margens? (última parte)

Não creio, porém, que a validade da Tese de Church seja uma má notícia para o progresso da Ciência. Existem muitos pontos obscuros e talvez algumas luzes que apontam para descobertas futuras:
  • As recentes ligações entre sistemas dinâmicos e a computabilidade. Por um lado as questões da Teoria da Computação passam a ser relevantes em outros domínios físicos. Também as características dos sistemas dinâmicos (como a teoria do Caos) tornam-se mais próximos da computação. Há sistemas dinâmicos cuja capacidade de computação convive com a existência de órbitas estranhas e comportamentos caóticos.
  • A complexidade emergente de um conjunto de interacções simples pode trazer respostas fundamentais sobre variados processos naturais. Mesmo se a Tese de Church Estendida for válida, a emergência produzida pela interacção de um enorme número de unidades simples pode ser suficiente para a resolução efectiva de muitas instâncias de problemas exponenciais.
  • A aleatoriedade inscrita na Matemática (descoberta por Chaitin) pode criar outros contactos entre a computação, os processos estocásticos e a dinâmica quântica.
  • A possível construção de uma nova visão científica baseada nos números discretos (defendida por Zuse, Fredkin e Wolfram no livro “A New Kind of Science”) pode libertar as teorias matemáticas e os modelos físicos dos números reais. Uma consequência deste facto seria aproximar a visão da Física à visão da Computação, salientando outros contactos entre estas duas disciplinas (ainda) misteriosamente interligadas.

junho 03, 2004

Abducção

Uma teoria matemática (i.e., um sistema axiomático) define-se através de:
  • Axiomas (verdades por definição)
  • Regras de inferência (combinam verdades para produzir mais verdades)
Um teorema T é verdadeiro a partir de uma teoria se existir uma sequência finita de passos lógicos que levem a T. Estes passos lógicos têm de começar em verdades conhecidas (axiomas ou teoremas já conhecidos) sendo aplicações das referidas regras de inferência. Assim, o raciocínio matemático é puramente dedutivo. Toda a verdade está contida na teoria inicial. A dedução é a única ferramenta capaz de extrair os padrões enterrados nessa teoria. Por isso se diz que não é possível extrair um teorema de 20 Kg de uma teoria que só pesa 10 Kg.

Mas a Matemática também se faz de pessoas. E nem sempre a dedução é o único processo utilizado. Em vez dos constante pequenos passos sobre a luz de um sistema axiomático, dá-se ocasionalmente enormes saltos no escuro. E no seio do desconhecido encontra-se uma potencial verdade (uma conjectura) de 20Kg à qual a nossa teoria de 10Kg não permite validar e para a qual é necessário recriar, expandir (ou mesmo deitar fora) a teoria utilizada. Muitos destes saltos são processos de indução (que já aqui referi) ou de abducção (palavra introduzida por Charles Peirce). Enquanto a indução diz:

A1 é B
A2 é B
A3 é B
--------------------------
Logo todos os Ai são B

A abducção diz:

Se ocorre C então ocorre D
Ocorreu D
--------------------------
Logo ocorreu C

Ambos os raciocícios podem produzir conclusões erradas. No entanto estes raciocinios fazem parte integrante da forma como construímos explicações do Universo. Mesmo que as conclusões não sejam verdadeiras per si (tendo de se validar por meios dedutivos ou estatísticos), Peirce argumentou que a indução e a abducção fazem parte de uma "lógica" da descoberta. Este processo seguiria os passos seguintes:

1) Observação de um problema não previsto pelas Leis em vigor (ou de uma conjectura de 20Kg sobre uma teoria de 10Kg)
2) Abducção de uma hipótese nova (que leve a uma teoria com 20Kg ou mais) para explicar (1)
3) Teste indutivo com experimentações para validar determinadas propriedades de (2)
4) Confirmação dedutiva de (1) a partir de (2)

Para Peirce a abducção era restrita à geração de hipóteses explanatórias (servindo apenas no passo (1) da descoberta científica). Posteriormente foi generalizada como um tipo de inferência - se não válida - pelo menos tão criativa como a indução.

abril 26, 2004

Aprender

Aprender da escola a ler, contar e pensar. Dito assim, parece fácil a tarefa de aluno e professor. Mas ler não é só ler. É escrever e criar nessas mesmas palavras, é interpretar os outros, procurar sentidos, resolver e desenhar ambiguidades. Mas contar não é só contar. É ver além dos números, descobrir padrões, abstrair o Mundo nas suas invariantes, ver o geral na floresta dos particulares. Mas pensar não é só pensar. É reconhecer o passado das ideias, os caminhos percorridos por magníficos fracassos, é aprender a argumentar e a admitir que se está errado, é beber da ética dos direitos e deveres para saciar a consciência. Dito assim, do fácil pouco sobra neste curto intervalo de escola e vida.

janeiro 07, 2004

Uma breve História da Computação (última parte)

As Redes Neuronais (RNs) possuem uma característica interessante: são sistemas dinâmicos. A sua estrutura e a forma como esta é parametrizada definem a evolução do sistema, a sua órbita dado o ponto inicial. Consoante o problema em questão, podemos optimizar os parâmetros, quer através de análise ou através de aprendizagem. Ou podemos optimizar a estrutura para produzir computação exacta! Como? Desde o inicio dos anos 40 que se sabe que as RNs podem calcular expressões lógicas. E desde os anos 90 que se conhecem formas de especificar a Máquina de Turing dentro de uma rede neuronal. As RNs possibilitam, numa mesma arquitectura, executar programas de computador e realizar processos de aprendizagem. Isto significa que existem sistemas dinâmicos que executam a Máquina de Turing e que problemas como o Halting Problem são herdados.

Muito se falou do efeito borboleta. Um sistema caótico é um sistema que, entre outras propriedades, possui sensibilidade às condições iniciais. Uma pequena diferença nos dados iniciais é multiplicada pela passagem do tempo até se tornar impossível prever o comportamento futuro do sistema (onde se estabelece o Horizonte de Acontecimento). É este horizonte que impede de sabermos se vai chover daqui a 1 mês por mais elaborados que sejam os modelos, por mais rápidos que sejam os simuladores. Isto é uma restrição séria ao nosso conhecimento do Universo.

Stephen Wolfram (nos anos 80 e agora no seu livro "A New Kind of Science") referiu nos seus trabalhos sobre processos físicos e computacionais uma outra restrição que ele apelidou de Irredutibilidade Computacional: predizer resultados futuros de um sistema é habitualmente tão difícil como o sistema produzir os mesmos resultados.

Mas o que foi falado aponta para outra restrição ainda mais séria: no caso geral, mesmo se soubermos com total precisão os dados iniciais, mesmo que o modelo usado seja perfeito (e neste caso o efeito borboleta seria eliminado) continuará a existir perguntas sem resposta, porque na generalidade haverá problemas que não são computáveis! Por exemplo, a pergunta se um dado sistema converge para um estado estável será isomorfo do Halting Problem. Podemos responder para alguns casos particulares, mas não é possível responder ao problema geral.

Se a Matemática alicerça o modelo do nosso Universo restringindo a verdade à consistência, talvez tudo o que seja possível modelar (e operacionalizar) se reduza ao limite do computável.

dezembro 22, 2003

Uma Breve História da Computação (parte V)

Depois de um período de sucessos e crescentes expectativas, o campo da Neurocomputação começou a ter dificuldades de progressão sendo alvo de crescentes criticas e descréditos, culminando estas com o conhecido livro de Minsky e Papert em 1969, Perceptrons, onde os autores mostram matematicamente que o perceptrão não pode aprender funções tão triviais como a função lógica XOR (o Ou Exclusivo). A tese implícita era que todas as redes neuronais sofriam da mesma falha que o perceptrão. Se eram incapazes de aprender as noções lógicas mais básicas, como poderiam ser vistas como um modelo promissor? Esse argumento teve repercussão no meio científico e a Neurocomputação perdeu apoios e investigadores durante cerca de uma década.

É costume pensar que a década de 70 foi uma travessia do deserto no que respeita às descobertas nesta área, mas muito trabalho foi realizado e alguns dos conceitos mais importantes actualmente, surgiram nesse período. Teuvo Kohonen e James Anderson em 1972 propuseram independentemente um modelo de memória associativa, onde o elemento básico neuronal era analógico (contínuo) e não digital (discreto) como nos modelos de McCulloch e de Rosenblatt. Este género de memória é próximo da nossa experiência individual: é-nos fácil associar um tipo de informação com algo que já conhecemos, conseguindo extrair o resto que dificilmente seria lembrado sem a informação inicial (como as primeiras notas de uma música, as palavras de um poema ou as imagens de um filme). Ainda no caminho para um modelo mais realista, Stephen Grossberg investigou os mecanismos de inibição e saturação neuronais (um neurónio biológico possui comportamento muito diferente do normal em estados de saturação) e introduziu a função de activação sigmoidal.

O físico John Hopfield, no início dos anos 80, para além do modelo conhecido por rede associativa de Hopfield, tem como uma das suas principais contribuições a introdução do conceito de energia a partir da matriz de ligações que define a rede neuronal. A dinâmica da rede de Hopfield é construída para minimizar a sua energia e só estabilizar quando atingir um mínimo. Esse mínimo permite guardar um padrão: um estado do sistema que "atrai" outros estados (um atractor portanto, mas definiria este uma dinâmica caótica?).

O passo que deu a partida definitiva para uma nova explosão criativa no campo, foi o trabalho iniciado por Paul Werbos em 1974 (e mais tarde, nos anos 80, por David Rumelhart e colegas) com a apresentação de um algoritmo de aprendizagem para redes de múltiplas camadas, uma generalização do algoritmo de Widrow-Hoff, o conhecido algoritmo de Retropropagação. Finalmente, caia a restrição conjecturada por Minsky dado que as redes neuronais de múltiplas camadas são capazes de aproximar qualquer função! Estava aberto o caminho da aprendizagem neuronal. [cont.]

dezembro 09, 2003

Uma breve História da Computação (parte IV)

Enquanto a abordagem matemática-operacional da computação se desenvolvia a partir do esforço de Turing (com o sobressalto evidente da 2ª guerra mundial que transferiu a sua imensa inteligência para o sucesso da desencriptação da máquina Nazi Enigma), a neurocomputação dava os seus primeiros passos. Pode indicar-se, com relativa segurança, que o trio mais influente do início da neurocomputação foi constituído pelos artigos seminais escritos por Warren McCulloch e Walter Pitts em 1943, o livro de Donald Hebb em 1949 e o artigo de Frank Rosenblatt em 1958.

No conjunto destes artigos foi mostrado que um paradigma computacional baseado e inspirado na actividade do cérebro humano tinha poder computacional não trivial e que poderia ser estudado matematicamente (McCulloch e Pitts demonstraram que até redes neuronais simples eram capazes de computar funções lógicas e aritméticas). Mostrou-se também que o condicionamento clássico observado nos animais era uma propriedade de neurónios individuais (Hebb apresentou uma lei de aprendizagem específica para as ligações sinápticas entre neurónios). Finalmente, com a apresentação do perceptrão e do neurocomputador MARK I nos fins da década de 50, Rosenblatt mostrou que a aprendizagem automática e o reconhecimento de padrões eram exequíveis neste contexto computacional.

Na década de 60, a investigação expandiu-se tanto na análise matemática como na simulação computacional de redes neuronais artificiais. Block, colega de Rosenblatt, demonstrou que o perceptrão constituído por um único neurónio era capaz de classificar problemas de um determinado contexto, se essa classificação fosse matematicamente possível. Em 1960, Bernard Widrow e Marcian Hoff, apresentaram um novo algoritmo adaptativo capaz de aprender mais depressa e acuradamente que o perceptrão. A regra apresentada era simples e elegante, e ela ou uma das suas variações, ainda são usadas em alguns sistemas actuais. Eles assumiram que o algoritmo era capaz de avaliar o erro entre a saída desejada e aquela que de facto era calculada pela rede num dado instante. Com esse dado, a rede adaptar-se-ia para minimizar o erro e aproximar-se da classificação óptima para o problema. Este algoritmo de correcção ficou conhecido por LMS, e foi aplicado pelos autores no conhecido modelo ADALINE. [cont.]

novembro 27, 2003

Uma breve Historia da Computação (parte III)

[I,II] Para responder negativamente à questão de Gödel, Turing mostrou inicialmente que a intuição de que problemas progressivamente mais complexos necessitavam de máquinas cada vez mais complexas, estava errada. Turing construiu uma máquina U que dado um problema computável P era capaz de simular a execução de uma qualquer máquina capaz de resolver P, sendo, portanto, capaz de resolver o problema em questão. Por esta razão, Turing chamou à máquina U a máquina universal. É a existência teórica desta máquina que deu origem, algumas décadas depois, aos computadores actuais. Turing provou que o entscheidungsproblem poderia ser traduzido num outro problema, denominado por problema da paragem (do inglês, The Halting Problem):
Seja uma máquina de Turing M e um conjunto de dados iniciais I. Será que a execução de M sobre I termina?
Assim, demonstrou por redução ao absurdo, que se existisse uma máquina de Turing capaz de garantir o problema da paragem de qualquer máquina de Turing, a execução dessa máquina, para certos casos, conduzia a situações contraditórias. Isto implicava que não havia nenhuma máquina capaz de resolver o problema da paragem nem o Entscheidungsproblem. O resultado negava a questão deixada em aberto por Gödel! A matemática revela-se incompletamente mecanizável, i.e., por mais complexo que seja o formalismo apresentado haverá sempre proposições indecidíveis que nem sequer podem ser identificadas como tal nessa formalização.

Entretanto, o número de formalismos apresentados na literatura científica aumentava (por exemplo, as máquinas URM, o cálculo lambda, as funções parciais recursivas). Todos se exprimiam uns nos outros e quando não acontecia era porque o sistema proposto tinha falhas que lhe reduziam a capacidade efectiva. As mais variadas formas de expressão da computabilidade – baseadas em diferentes abordagens – eram análogas. Kleene, em 1952, apelidou de Tese de Church a conjectura vigente que a máquina de Turing e os equivalentes exprimiam o conceito intuitivo de algoritmo.

Mas, apesar desta nova e inesperada limitação da Matemática – e provavelmente a descoberta mais significativa e profunda da Matemática de todo o Século XX – o caminho teórico estava aberto para a construção dos computadores. [cont.]

ps: Referi na 1ª parte que Hilbert, em 1900, apresentou 23 problemas como desafios para o Século XX. Já só restam 3 por resolver, o 6º, o 8º e o 16º. Curiosamente, ontem surgiu a notícia que uma estudante de 22 anos em Estocolmo resolveu parcialmente o 16º, resultado que será apresentado em breve.