Sob o ponto de vista da Matemática, eis uma análise despretensiosa do conceito “os números”, que sempre tem ocupado o homem na sua necessidade de contar.
Depois dos números mais pequenos, que vêm de tempos pré-históricos, chega o passo seguinte, com o aparecimento da escrita – escrever números.
No início os números eram representados por sinais iguais que se repetiam, uns a seguir aos outros, até ao número desejado.
A dificuldade de ler números grandes trouxe a separação desses sinais em conjuntos de dez e, posteriormente, criou-se um símbolo para dez grupos de dez, ou seja o cem e, assim, sucessivamente.
Este era o sistema babilónico, cujo conjunto cuneiforme era representado por desenhos de cobaias desenhadas sobre argila.
Os gregos, nomeadamente Pitágoras, inventaram os números irracionais.
Os hindus, nos anos 500, inventaram o zero, chamando-lhe “sunya”que queria dizer vazio.
A invenção foi um grande avanço, já que os espaços deixados vazios entre os números geravam muitas confusões.
Os árabes, no séc. VIII, aproveitaram o símbolo zero e chamaram-lhe “céfer”, que significa vazio.
Este termo deu origem à palavra portuguesa zero, e às castelhanas cero e cifra.
Leonardo Fibonacci (1170-1240), matemático italiano, foi o primeiro a escrever sobre os números árabes, no ocidente.
Depois de percorrer todo o norte de África, onde aprendeu a numeração árabe, e a notação posicional – o zero -, escreveu um livro em 1202, “liber abaci” (o livro do ábaco) que serviu para introduzir os números árabes na Europa.
Porém a numeração romana ainda prevaleceu no ocidente por mais três séculos.
O matemático italiano Gerónimo Cardano (1501-1575) demonstrou, em 1545, que as dívidas e casos similares se podiam tratar com os números negativos.
Até então os matemáticos pensavam que todos os números tinham que ser maiores que zero.
Na Antiguidade contavam-se apenas vários milhares; quando queriam exprimir quantidades muito grandes diziam “centos de milhares” ou “mais que as estrelas”.
A palavra milhão, derivada do latim, onde significava “grande milhar”, que equivale a mil milhares, vem da Idade Média, época em que o comércio se expandiu e obrigou a utilizar uma palavra especial.
Os biliões e os triliões vieram mais tarde.
Em 1646, John Napie (Neper ou Neperius), inventou os logaritmos – número que indica a potência a que se tem de elevar um dado para que resulte um 3º também conhecido -.
O inglês John Wallis (1616-1703) deu sentido a nºs imaginários e nºs complexos.
Em 1744, o suíço, Leonhard Euler (1701-1783) descobriu os nºs transcendentais – que nunca constituirão uma solução para qualquer equação algébrica que possa escrever-se.
Em 1845, o matemático irlandês William Rowan Hamilton (1815-1865) começou a trabalhar com números hipercomplexos a que chamou quaternos, ou quaternários.
E….Ficamos por aqui, embora com muito para acrescentar.
Sem comentários:
Enviar um comentário