Le système de numération babylonien
Le zéro
L'histoire du zéro s'articule autour de l'histoire de la pensée car, plus que tout autre nombre, le zéro avait de lourdes conséquences philosophiques. En effet, le zéro signifie l'absence et le vide, ce qui était parfois difficilement acceptable dans certaines civilisations qui rejetaient aussi bien le néant que l'infini.
Les Grecs, peuple pourtant mathématicien, ont rejeté le zéro pour ces raisons. Ainsi, Euclide énonce : « Est unité ce selon quoi chacune des choses existantes est dite une ». En d'autres termes, est un ce qui existe. Le vide n'existant pas selon Aristote, le nommer est sans intérêt voire faux.
Ce sont les Babyloniens qui vont les premiers utiliser le zéro (vers le IIIe siècle après J.-C.), non pas comme un nombre ni même un chiffre, mais en tant que marqueur signifiant l'absence. Par exemple, si l'on voulait transposer le nombre 507 par écrit, on écrivait 5 7 ; il y avait cinq centaines, aucune dizaine et sept unités. Pour se rappeler cette absence et éviter un confusion avec le nombre 57, les scribes (et non les mathématiciens) inventèrent un marquage prenant la forme d'un double chevron pour signifier cette absence.
Fondamentalement, ce sont les savants indiens qui vont faire évoluer le zéro vers le sens que nous lui reconnaissons aujourd'hui, à savoir d'un nombre entier non naturel, pair, ni premier, ni positif, ni négatif. Dans la philosophie hindoue, le vide et l'infini sont dans l'essence même du cosmos, aussi le zéro va-t-il devenir un nombre à part entière. Il sera défini comme la soustraction d'un nombre par lui-même (x - x = 0). Le zéro est alors appelé sunya ce qui signifie le vide. Au XIIe siècle, le mathématicien indien Bhaskara parvient à établir que 1/0 = l'infini. Il démontre ainsi, la relation qui existe entre le vide et l'infini.
Au IXe siècle, les Arabes emprunteront aux Indiens le zéro, le mot sunya devenant sifr. Ce ne sera finalement qu'au XIIe siècle que le nombre arrivera en Occident, le mot devenant zefiro pour devenir zéro à la fin du XVe siècle.
Le nombre 1
Il faut distinguer dans l'histoire du nombre un, l'histoire de la pensée du nombre de l'histoire de la représentation du nombre. Le nombre un a été très rapidement pensé comme la base de toute numération, qu'elle soit orale ou écrite. Il s'agit du premier chiffre que l'on utilise pour effectuer un recensement.
Dans toutes les civilisations, le un indique cette idée de début de toute chose. Ainsi, en Chine, le Yi est-il le premier chiffre. En sanskrit, adi, qui signifie le commencement, était-il utilisé pour marquer le nombre un. Pythagore estime également que le un est la base de tous les nombres. Dans de nombreux systèmes de numération comme en Chine au Ier siècle avant J.-C. ou dans l'empire Maya au VIIIe siècle, les nombres seront obtenus par la répétition du chiffre un.
Le un est donc considéré comme le premier (attention, un n'est pas un nombre premier par convention) des nombres. Étymologiquement, il souligne souvent le début d'une énumération concrète d'objets. C'est pourquoi la représentation va souvent se matérialiser par des cailloux (les bouliers chinois) ou sur les phalanges des doigts (les Romains pouvaient compter jusqu'à 9 999 grâce à des signes similaires à ceux du langage des sourds-muets).
Par la suite, le un va être représenté de façon plus abstraite dans un système d'écriture. Il va devenir un symbole graphique. Le un que nous connaissons sous la forme « 1 » est issu de la déformation du nombre indien après une transition par les mathématiciens arabes. En effet, les chiffres qu'on appelle arabes sont, à l'origine, des inventions indiennes !
Le nombre e
Pour comprendre ce nombre irrationnel, il est utile tout d'abord de comprendre l'histoire de l'émergence de son besoin.
Au XVIe siècle, il n'existe ni ordinateur ni calculatrice. Or les sociétés occidentales dans leur course à la maîtrise des océans, dans l'émergence des transactions boursières ou encore dans l'étude des astres, ont besoin de calculs de plus en plus précis.
Dans cette optique, un mathématicien écossais du nom de John Napier ( ou John Neper) entreprend, pendant 20 ans, de réaliser des tables de calculs qui simplifieraient les opérations complexes. Il pose ainsi les bases du calcul logarithmique en 1617. L'un des systèmes de calcul logarithmique sera le logarithme népérien (noté ln).
Les logarithmes sont des nombres artificiels utilisés pour obtenir le résultat de l'opération. Ils servent d'intermédiaires. Cependant, ces nombres intermédiaires sont transcendants, et, de la même manière que pour le nombre π des siècles auparavant, les mathématiciens vont faire émerger un symbole qui permettra de nommer en une lettre une infinité de chiffres, c'est le nombre e. Ainsi ln(e) = 1.
Même s'il sera étudié par Leibniz, Huygens ou encore Bernoulli, le nombre e sera nommé conventionnellement par le mathématicien Suisse Leonhard Euler (1707-1783) qui attribuera cette lettre en rapport, non pas avec son nom, mais avec la fonction exponentielle qu'elle décrit.