setembro 24, 2024
outubro 01, 2012
- João Neto: Do you think math concepts exist independently of persons (aka, mathematical platonism)?
- Alexander Nikitin: Define 'exist'. ---
- JN: Well, I overload the word 'exist' with two meanings: (i) existence independently of persons (let's call it exist-1) and, (ii) existence due to persons (exist-2). It's the separation of Maps and the Territory.
- AN: You can argue that only mind exist. Everything else are just ideas in your mind. Then you have an idea of natural numbers in your head. And you have an idea of a set of axioms and deduction rules that define your space of natural numbers. Then you start doing different things with your natural numbers following the rules and you find that the space has a structure and properties that depend on those axioms and rules only and nothing else in your mind. Your mind can do whatever it wants. It can have any other ideas, feelings and states, but whenever it follows the axioms and rules it always gets the same results. Does that mean that there is something that exists independently of your mind?
- JN: But there is evidence against solipsism: we have lots of data from our senses and tech extensions. And my mind cannot do whatever it wants, especially when I'm driving :-) We are more than one human, why would one single mind be special? And if we assume two or more minds (a belief that literally every one follows) then how could we explain the coincidence of sense data? The belief that 'only mind exist' does not help us at all, it dissolves everything and give us nothing.
- AN: If you believe that the 'real' world exists and math is just an artifact of human brain activity. Then notice several things: (1) You can define a mathematical system as purely abstract and symbolical without any attempts to model anything 'real'. You can even ask a computer to generate a random set of symbols, axioms and rules for you to exclude any 'subconscious' mapping to anything real; (2) You can give that math system to any other people and/or computers and notice that if they follow the rules they always get the same results regardless of the properties of their minds; (3) If you eventually manage to map your system to something 'real' you will notice another strange thing: the results of physical experiments will always follow predictions derived from the system once the mapping has been established, but it NEVER work in the opposite direction - physical results NEVER disprove any conclusions derived from the axioms and rules of the math system. They can prove that the mapping was wrong, but they can't 'bend' the 'truths' of the math system. As we see math is self-sufficient. Substrate independent. And physics always follows math. Then what is more 'real'?
- JN: The first and second point also work for board games. And games can be formalized as math objects. However, defending that, say, Chess exist-0 is a very strange assertion for me. I don't see the relevance of the third point. Some math mappings are adequate to formalize scientific models (since there are infinite mathematical models, only a vanishing part of them are really useful). And, sure, enough counter-evidence can cancel the previous adequacy between model and data. So what? Why would we want to use data to bend Math? We just try to find or create another Math model that does the trick. They are tools just like anything else. We use many maps/models. We could imagine a spectrum from totally objective to totally subjective. Humans developed a discipline to deal with those at the objective extreme of that spectrum and called it Math (Physics, which is just another family of models, is a close neighbor).
- AN: The third point is important because it tells us that math is not just a map. It has predictive power. A map doesn't give you more information than you already know from your 'real' data. It shows you only that part of the territory which you already have experienced. Once you get mathematical model you instantly know everything about your territory. All human engineering is based on this idea. Every day we build bridges, planes, skyscrapers - 'real' objects that never existed before - and we can do it successfully because we rely on the empirical fact that once we get the math right we can be sure that the 'real' system's behaviour will follow the math. Our experience tells us that the 'real' world is not random. It follows certain rules. That means that the rules exist. The rules are abstract concepts they are not a part of the physical world because they define it. So if you believe that the world is not random then you should accept that abstract concepts can exist independently of anything in the 'real' world. I asked you to define 'exist' in the beginning because abstract concepts don't exist in the same sense as 'real' things. We can not put them in any specific place and point in time. They exist outside of space-time. I think I was not clear from the beginning. My view is not just that abstract mathematical objects exist. My belief is that mathematics is the only thing that exists. Our 'real' world is just one of all possible mathematical systems that has 'self-aware' objects that precept their environment as 'real'. That's all.
- JN: When you say that the fundamental basis is Math, the only thing that exists, and outside space-time, you are putting yourself into a position that cannot be settled by evidence. Which is not unreasonable since we are talking metaphysics. I recently already read similar arguments from people like Bill Taylor, Massimo Pigliucci or Steve Landsburg (all quite clever chaps). I think we cannot possible breach the abyss between the Territory and the Map (for me, we are entirely Map denizens). I just don't like positions which are 100% argument and 0% evidence. So, I try to minimize my own 100% argument beliefs: I don't assume anything from the Territory except that it generates events. And that's because we are able to measure those events (these are partial measures due to the limitations of our sense apparatus). These events, as you said, do have some regularities that we adapt ourselves to them by customs and culture, and formalize some into scientific laws. Why there are regularities? I don't know. Nobody knows (anyway, as far as we know people would be impossible in a more random universe). It's a bit like Hume's guillotine for ethics, there's an ontological guillotine between existence-0 and existence-1. I would bet that no one will ever cross it (in fact, from my position, that does not even make sense). Now, when you say: "Our experience tells us that the 'real' world is not random. It follows certain rules. That means that the rules exist." I think you are falling into Whitehead's Fallacy of Misplaced Concreteness (aka as ET Jayne's Mind Projection Fallacy). Rules imho only exist-1 in our minds. Perhaps using a less objective example, I can explain it better: humans share lots of cognitive bias. We can extract rules from well-made psychological studies. But we don't assume that these rules exist outside its scientific context. For me, the same happens with electrons, QM, etc. I see some wisdom in the "Shut Up and Calculate" attitude. In this case, we can only appreciate each other arguments. At the end of the day, we are confronting aesthetic positions not truly empirical ones.
Por João Neto às 16:48 0 comentário(s)
junho 23, 2011
março 29, 2011
Exploração
Por João Neto às 14:45 1 comentário(s)
dezembro 14, 2010
Separação
Por João Neto às 10:02 2 comentário(s)
novembro 13, 2010
Pendor
Por João Neto às 21:27 0 comentário(s)
junho 21, 2010
Adiar
Por João Neto às 10:18 0 comentário(s)
fevereiro 18, 2010
Axiomas II
Pode esta atitude ser aproveitada na ética ou na epistemologia? Sejam os dois seguintes axiomas: "Todas as pessoas devem ter direitos iguais" e "Existe uma realidade objectiva". Seguindo o raciocínio anterior, não teriam de ser evidentes mas sim coerentes e expressivos (a expressividade, aqui, corresponde ao que podemos obter com a sua adopção). E se há argumentos fortes a favor da coerência destes axiomas, a evidência histórica é indiscutível em relação às vantagens obtidas do seu uso. O suficiente, creio, para os aceitarmos como axiomas mesmo que, para os mais cépticos ou mais cínicos, eles não se mostrem óbvios.
Por João Neto às 09:58 0 comentário(s)
fevereiro 11, 2010
Axiomas I
Unfortunately, heartwarming answers along these lines are no longer tenable (if they ever were). On the one hand, assumptions once thought to be self-evident have turned out to be debatable, like the law of the excluded middle, or outright false, like the idea that every property determines a set. Conversely, the axiomatization of set theory has led to the consideration of axiom candidates that no one finds obvious, not even their staunchest supporters. In such cases, we find the methodology has more in common with the natural scientist's hypotheses formation and testing than the caricature of the mathematician writing down a few obvious truths and preceeding to draw logical consequences. [...] The fact that these few axioms [of set theory] are commonly enshrined in the opening pages of mathematics texts should be viewed as an historical accident, not a sign of their privileged epistemological or metaphysical status." Believing the Axioms, Penelope Maddy (1987)
Por João Neto às 09:57 1 comentário(s)
julho 06, 2009
Três E's
Por João Neto às 21:00 0 comentário(s)
março 11, 2008
Natureza Fractal
O rio Nilo, já bem dentro de África, a lembrar uma estrutura fractal do conjunto de Mandelbrot.
Por João Neto às 22:08 1 comentário(s)
março 29, 2007
O problema da auto-análise
Por João Neto às 23:15 2 comentário(s)
junho 14, 2005
Matemática vs. Ciência
Por João Neto às 14:58 0 comentário(s)
junho 21, 2004
Física e Computação: Qual é a ponte? Quais são as margens? (última parte)
- As recentes ligações entre sistemas dinâmicos e a computabilidade. Por um lado as questões da Teoria da Computação passam a ser relevantes em outros domínios físicos. Também as características dos sistemas dinâmicos (como a teoria do Caos) tornam-se mais próximos da computação. Há sistemas dinâmicos cuja capacidade de computação convive com a existência de órbitas estranhas e comportamentos caóticos.
- A complexidade emergente de um conjunto de interacções simples pode trazer respostas fundamentais sobre variados processos naturais. Mesmo se a Tese de Church Estendida for válida, a emergência produzida pela interacção de um enorme número de unidades simples pode ser suficiente para a resolução efectiva de muitas instâncias de problemas exponenciais.
- A aleatoriedade inscrita na Matemática (descoberta por Chaitin) pode criar outros contactos entre a computação, os processos estocásticos e a dinâmica quântica.
- A possível construção de uma nova visão científica baseada nos números discretos (defendida por Zuse, Fredkin e Wolfram no livro “A New Kind of Science”) pode libertar as teorias matemáticas e os modelos físicos dos números reais. Uma consequência deste facto seria aproximar a visão da Física à visão da Computação, salientando outros contactos entre estas duas disciplinas (ainda) misteriosamente interligadas.
Por João Neto às 08:40 0 comentário(s)
junho 03, 2004
Abducção
- Axiomas (verdades por definição)
- Regras de inferência (combinam verdades para produzir mais verdades)
Mas a Matemática também se faz de pessoas. E nem sempre a dedução é o único processo utilizado. Em vez dos constante pequenos passos sobre a luz de um sistema axiomático, dá-se ocasionalmente enormes saltos no escuro. E no seio do desconhecido encontra-se uma potencial verdade (uma conjectura) de 20Kg à qual a nossa teoria de 10Kg não permite validar e para a qual é necessário recriar, expandir (ou mesmo deitar fora) a teoria utilizada. Muitos destes saltos são processos de indução (que já aqui referi) ou de abducção (palavra introduzida por Charles Peirce). Enquanto a indução diz:
A1 é B
A2 é B
A3 é B
--------------------------
Logo todos os Ai são B
A abducção diz:
Se ocorre C então ocorre D
Ocorreu D
--------------------------
Logo ocorreu C
Ambos os raciocícios podem produzir conclusões erradas. No entanto estes raciocinios fazem parte integrante da forma como construímos explicações do Universo. Mesmo que as conclusões não sejam verdadeiras per si (tendo de se validar por meios dedutivos ou estatísticos), Peirce argumentou que a indução e a abducção fazem parte de uma "lógica" da descoberta. Este processo seguiria os passos seguintes:
1) Observação de um problema não previsto pelas Leis em vigor (ou de uma conjectura de 20Kg sobre uma teoria de 10Kg)
2) Abducção de uma hipótese nova (que leve a uma teoria com 20Kg ou mais) para explicar (1)
3) Teste indutivo com experimentações para validar determinadas propriedades de (2)
4) Confirmação dedutiva de (1) a partir de (2)
Para Peirce a abducção era restrita à geração de hipóteses explanatórias (servindo apenas no passo (1) da descoberta científica). Posteriormente foi generalizada como um tipo de inferência - se não válida - pelo menos tão criativa como a indução.
Por João Neto às 08:47 0 comentário(s)
abril 26, 2004
Aprender
Por João Neto às 09:18 0 comentário(s)
janeiro 07, 2004
Uma breve História da Computação (última parte)
Muito se falou do efeito borboleta. Um sistema caótico é um sistema que, entre outras propriedades, possui sensibilidade às condições iniciais. Uma pequena diferença nos dados iniciais é multiplicada pela passagem do tempo até se tornar impossível prever o comportamento futuro do sistema (onde se estabelece o Horizonte de Acontecimento). É este horizonte que impede de sabermos se vai chover daqui a 1 mês por mais elaborados que sejam os modelos, por mais rápidos que sejam os simuladores. Isto é uma restrição séria ao nosso conhecimento do Universo.
Stephen Wolfram (nos anos 80 e agora no seu livro "A New Kind of Science") referiu nos seus trabalhos sobre processos físicos e computacionais uma outra restrição que ele apelidou de Irredutibilidade Computacional: predizer resultados futuros de um sistema é habitualmente tão difícil como o sistema produzir os mesmos resultados.
Mas o que foi falado aponta para outra restrição ainda mais séria: no caso geral, mesmo se soubermos com total precisão os dados iniciais, mesmo que o modelo usado seja perfeito (e neste caso o efeito borboleta seria eliminado) continuará a existir perguntas sem resposta, porque na generalidade haverá problemas que não são computáveis! Por exemplo, a pergunta se um dado sistema converge para um estado estável será isomorfo do Halting Problem. Podemos responder para alguns casos particulares, mas não é possível responder ao problema geral.
Se a Matemática alicerça o modelo do nosso Universo restringindo a verdade à consistência, talvez tudo o que seja possível modelar (e operacionalizar) se reduza ao limite do computável.
Por João Neto às 12:23 0 comentário(s)
dezembro 22, 2003
Uma Breve História da Computação (parte V)
É costume pensar que a década de 70 foi uma travessia do deserto no que respeita às descobertas nesta área, mas muito trabalho foi realizado e alguns dos conceitos mais importantes actualmente, surgiram nesse período. Teuvo Kohonen e James Anderson em 1972 propuseram independentemente um modelo de memória associativa, onde o elemento básico neuronal era analógico (contínuo) e não digital (discreto) como nos modelos de McCulloch e de Rosenblatt. Este género de memória é próximo da nossa experiência individual: é-nos fácil associar um tipo de informação com algo que já conhecemos, conseguindo extrair o resto que dificilmente seria lembrado sem a informação inicial (como as primeiras notas de uma música, as palavras de um poema ou as imagens de um filme). Ainda no caminho para um modelo mais realista, Stephen Grossberg investigou os mecanismos de inibição e saturação neuronais (um neurónio biológico possui comportamento muito diferente do normal em estados de saturação) e introduziu a função de activação sigmoidal.
O físico John Hopfield, no início dos anos 80, para além do modelo conhecido por rede associativa de Hopfield, tem como uma das suas principais contribuições a introdução do conceito de energia a partir da matriz de ligações que define a rede neuronal. A dinâmica da rede de Hopfield é construída para minimizar a sua energia e só estabilizar quando atingir um mínimo. Esse mínimo permite guardar um padrão: um estado do sistema que "atrai" outros estados (um atractor portanto, mas definiria este uma dinâmica caótica?).
O passo que deu a partida definitiva para uma nova explosão criativa no campo, foi o trabalho iniciado por Paul Werbos em 1974 (e mais tarde, nos anos 80, por David Rumelhart e colegas) com a apresentação de um algoritmo de aprendizagem para redes de múltiplas camadas, uma generalização do algoritmo de Widrow-Hoff, o conhecido algoritmo de Retropropagação. Finalmente, caia a restrição conjecturada por Minsky dado que as redes neuronais de múltiplas camadas são capazes de aproximar qualquer função! Estava aberto o caminho da aprendizagem neuronal. [cont.]
Por João Neto às 08:38 0 comentário(s)
dezembro 09, 2003
Uma breve História da Computação (parte IV)
No conjunto destes artigos foi mostrado que um paradigma computacional baseado e inspirado na actividade do cérebro humano tinha poder computacional não trivial e que poderia ser estudado matematicamente (McCulloch e Pitts demonstraram que até redes neuronais simples eram capazes de computar funções lógicas e aritméticas). Mostrou-se também que o condicionamento clássico observado nos animais era uma propriedade de neurónios individuais (Hebb apresentou uma lei de aprendizagem específica para as ligações sinápticas entre neurónios). Finalmente, com a apresentação do perceptrão e do neurocomputador MARK I nos fins da década de 50, Rosenblatt mostrou que a aprendizagem automática e o reconhecimento de padrões eram exequíveis neste contexto computacional.
Na década de 60, a investigação expandiu-se tanto na análise matemática como na simulação computacional de redes neuronais artificiais. Block, colega de Rosenblatt, demonstrou que o perceptrão constituído por um único neurónio era capaz de classificar problemas de um determinado contexto, se essa classificação fosse matematicamente possível. Em 1960, Bernard Widrow e Marcian Hoff, apresentaram um novo algoritmo adaptativo capaz de aprender mais depressa e acuradamente que o perceptrão. A regra apresentada era simples e elegante, e ela ou uma das suas variações, ainda são usadas em alguns sistemas actuais. Eles assumiram que o algoritmo era capaz de avaliar o erro entre a saída desejada e aquela que de facto era calculada pela rede num dado instante. Com esse dado, a rede adaptar-se-ia para minimizar o erro e aproximar-se da classificação óptima para o problema. Este algoritmo de correcção ficou conhecido por LMS, e foi aplicado pelos autores no conhecido modelo ADALINE. [cont.]
Por João Neto às 11:20 0 comentário(s)
novembro 27, 2003
Uma breve Historia da Computação (parte III)
Seja uma máquina de Turing M e um conjunto de dados iniciais I. Será que a execução de M sobre I termina?Assim, demonstrou por redução ao absurdo, que se existisse uma máquina de Turing capaz de garantir o problema da paragem de qualquer máquina de Turing, a execução dessa máquina, para certos casos, conduzia a situações contraditórias. Isto implicava que não havia nenhuma máquina capaz de resolver o problema da paragem nem o Entscheidungsproblem. O resultado negava a questão deixada em aberto por Gödel! A matemática revela-se incompletamente mecanizável, i.e., por mais complexo que seja o formalismo apresentado haverá sempre proposições indecidíveis que nem sequer podem ser identificadas como tal nessa formalização.
Entretanto, o número de formalismos apresentados na literatura científica aumentava (por exemplo, as máquinas URM, o cálculo lambda, as funções parciais recursivas). Todos se exprimiam uns nos outros e quando não acontecia era porque o sistema proposto tinha falhas que lhe reduziam a capacidade efectiva. As mais variadas formas de expressão da computabilidade – baseadas em diferentes abordagens – eram análogas. Kleene, em 1952, apelidou de Tese de Church a conjectura vigente que a máquina de Turing e os equivalentes exprimiam o conceito intuitivo de algoritmo.
Mas, apesar desta nova e inesperada limitação da Matemática – e provavelmente a descoberta mais significativa e profunda da Matemática de todo o Século XX – o caminho teórico estava aberto para a construção dos computadores. [cont.]
ps: Referi na 1ª parte que Hilbert, em 1900, apresentou 23 problemas como desafios para o Século XX. Já só restam 3 por resolver, o 6º, o 8º e o 16º. Curiosamente, ontem surgiu a notícia que uma estudante de 22 anos em Estocolmo resolveu parcialmente o 16º, resultado que será apresentado em breve.
Por João Neto às 09:24 0 comentário(s)