Définition de la notion d' Intelligence Artificielle ou IA
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..
De HAL 9000 aux robots de SONY
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..
Les clés de l'Intelligence Artificielle
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..
Pour quelle utilité '
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..
Possibilités et limites actuelles de l'IA
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..
Les objectifs de l'autonomie d'un système d'IA
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..
Premières conclusions
Nous possédons actuellement beaucoup de technologies qui entreront en jeu lors de la mise en place d'un système intelligent. Celles-ci devront cependant s'améliorer et devenir abordables même si une mise en place d'une telle création nécessitera de très forts investissements.
Comme je l'ai souligné dans un précédent chapitre, la prochaine évolution de l'informatique est la nouvelle interface homme/machine qui s'ouvre à nous : la reconnaissance vocale. Actuellement, elle est loin d'être au point mais elle entrera sans commune mesure dans nos vies dans les 15 prochaines années. Elle est surtout un maillon essentiel de la compréhension de l'homme par la machine. Il y a encore cependant du travail à effectuer mais ne doutons pas de l'avenir de cette technologie. Microsoft a d'ailleurs annoncé que son système d'exploitation Windows Vista, prévu en fin 2006, intégrera la technologie de la reconnaissance vocale (mais quid du français ')
La deuxième technologie ou procédé technologique que nous possédons actuellement est le RAID. Pour ceux qui ne connaissent pas cette méthode de stockage, on simplifiera en disant que c'est le fait de mettre plusieurs disques durs sur une même unité et cela afin de dupliquer les données et donc de les sécuriser au cas où ces disques tomberait en panne (sauf en RAID 0 qui privilégie la vitesse, mais ne considèrons pas cela comme du RAID). Nous reviendrons longuement sur ce point lorsque nous parlerons des objectifs d'une IA mais reconnaissons qu'une mise en place de cette dernière permettra à l'homme de ne plus se soucier de ses données et l'IA devra donc les sécuriser.
Enfin, de manière générale, tous les systèmes actuels à l'exécution de tâches quelconques préfigurent déjà l'intelligence artificielle malgré leurs limites évidentes. De même, il reste encore beaucoup de limites à la mise en place de tels systèmes.
- La puissance de calcul tout d'abord :
nous travaillons actuellement avec des brouettes à traîner et nous
sommes en position d'attente devant nos ordinateurs au moins 20% du
temps ; certes, les processeurs évoluent et donc les programmes avec
mais, à moins d'utiliser de vieux logiciels, on peste contre cette
machine qui gratte encore et encore et qui permet d'écrire cet article.
Dieu soit loué, dans ce cas-là, cela reste très correct. Cette
technologie ne peut que s'améliorer du fait de la loi de Gordon Moore(le
nombre de transistors dans un microprocesseur double tous les 18
mois) mais quelques interrogations subsistent : les coûts de
fabrication des usines de CPU doublent aussi à chaque nouvelle
génération
(ce qui pose un problème pour une concurrence pure et parfaite et qui
va plutôt nous tourner dans les prochaines années vers un oligopole)
mais surtout on ne pourra pas suivre cette loi indéfiniment du fait des
contraintes de la physique. Pour le processeur 386 à 16Mhz apparu en
1986, les ingénieurs
utilisaient une finesse de gravure de 1.5 Micron (micromètre soit
0.0015 millimètre). Pour information, un cheveu fait environ 1 Micron
d'épaisseur.
Aujourd'hui, on vient
de passer sous la barre des 0.1 Micron. A terme (d'ici 2015), les
transistors seront tellement petits que se manifestera « l'effet tunnel
», c'est-à-dire que l'information sautera de transistors en transistors
et se perdra finalement, du fait de la petitesse et du rapprochement de
ces derniers (ne parlons même pas de la chaleur dégagée). Bref, les
technologies actuelles pour la fabrication de microprocesseurs sont là
aussi limitées à court terme mais ne nous inquiétons pas outre mesure,
des solutions sont déjà en place (dont le dual-core mais ce n'est pas
l'objet de cet article).
- La capacité de nos disques durs ensuite : une base de données d'une IA fera quelques bons To (Teraoctet) voire plus si elle s'auto-éduque. Il faut donc des très bons disques durs (comme signalé plus haut, une solution RAID est conseillée) avec des temps d'accès rapides, l'accès et l'affichage de l'information devant être immédiat ou quasi-immédiat. Des nouvelles normes arrivent progressivement et devraient donc permettre de tels développements. De même, l'utilisation du SCSI renforcera le tout. Les baisses de prix étant rapides, le stockage de l'information est une donnée essentielle pour le futur, qu'elle ait ou non un rapport avec l'intelligence artificielle.
- Enfin, la troisième et dernière limite de nos
ordinateurs aujourd'hui pour préfigurer les systèmes d'IA de demain est
le système d'exploitation. Noyau central de l'ordinateur, il devra être
stable, rapide, et simple d'utilisation. Si l'IA bouleverse nos vies
demain, il faut que cette dernière ne dépende pas d'un constructeur (on
pourrait apparenter cela à terme à une forme d'esclavage !). Il faut
des noyaux spécialement réécrit pour de l'IA avec par exemple une
optimisation de recherche dans une base de données ou des API déjà
écrites pour que les programmeurs puissent écrire des programmes
faisant appel à cette IA : l'agent intelligent régissant tout cela
devra donc en plus de posséder le noyau d'IA, posséder aussi le noyau
de l'OS pour comprendre son environnement et le connaître. Il faut
d'ailleurs noter que le successeur de Windows XP (Vista) prévu pour fin
2006 devrait intégrer un peu d'Intelligence Artificielle de manière
plus visible que pour Windows 2000 (je parle bien sûr des menus qui
s'affichent en fonction des utilisations) et reposerait sur un format
de fichiers de type SQLServer (Yukon) nommé, aux dernières nouvelles,
WinFS (Windows Future Storage) ; cependant, cela restera une couche de
NTFS et ce système de fichiers devrait aussi être disponible pour
Windows XP.
Bref, on le voit bien ici, les technologies actuelles
n'ont pas été pensé pour faire de la déduction, de la synthèse ou de la
logique mais pour appliquer des formules mathématiques et des
automatismes qui ne nécessitent aucune réflexion. Elles sont cependant
sur la bonne voie car le système binaire, derrière son étonnante
simplicité, cache une déconcertante complexité et un formidable
potentiel.
../..