Drones contre un homme: qui est le meilleur?
Les articles de l'auteur
Drones contre un homme: qui est le meilleur?

Drones contre un homme: qui est le meilleur?

 

On croit que l'ordinateur et l'intelligence artificielle gérée sous son contrôle direct, sont mieux en mesure de faire face à l'erreur de calcul de toutes les situations possibles, cependant, il y a vraiment le système sans pilote prêt est complètement remplacé l'aviation humaine.

 

 

Depuis les frères Wright premier capables de voler sur son avion plusieurs mètres, les gens sont constamment à la recherche d'une occasion de faire des vols plus sûrs et remplacer l'équipage avec des machines spéciales qui pourraient fournir le plein contrôle de l'avion pendant le vol aux dizaines, des centaines et des milliers de kilomètres. Les premières tentatives de réaliser des systèmes sans pilote ont été faits, assez curieusement, même dans 30-40 du siècle dernier, et même si elles ont échoué, les scientifiques et les ingénieurs ont depuis des décennies de travail pour développer des dispositifs qui permettent de contrôler avec précision l'avion, et n'a pas besoin en repos, suivi complètement et complètement le vol, à partir du moment du décollage et en terminant avec un atterrissage.

Il n'y a pas si longtemps, les constructeurs d'avions européens ont reçu des informations selon lesquelles la société «Airbus» est en train de développer un système de contrôle d'aéronef entièrement automatisé. De l'avis des créateurs, dans un proche avenir, le système à équipage automatique se débarrassera des membres de l'équipage, rendant ainsi les vols d'un coin du globe à l'autre aussi efficaces que possible. Bien sûr, ces nouvelles sont très positives, cependant, un ordinateur peut-il remplacer une personne?

 

 

En termes de traitement de l'information, l'ordinateur est presque égal, en particulier, pour certains calculs, même très simple, une personne prend quelques secondes, tandis que l'ordinateur le fait des centaines de milliers de fois plus vite, et donc le système de pilotage automatique peut effectuer indépendamment le contrôle du vol à travers des fronts orageux, où une personne ne pourrait certainement pas faire face.

Néanmoins, menée par il y a quelques semaines scientifiques de l'expérience a montré que le système d'intelligence artificielle, peut non seulement qualitativement effectuer des calculs complexes, mais agit beaucoup plus lentement droits, en particulier, a été réalisé une expérience dans laquelle un itinéraire a été proposé d'entreprendre les mêmes en termes de technique caractéristiques des véhicules aériens sans pilote, et si une personne pouvait faire face à la tâche pour les secondes 11,1, alors un ordinateur équipé d'un système d'intelligence artificielle a fait cela pour 13,9 secondes commande technologique, qui est, en fait, une différence de temps de 20%.

 

 

Il est important de garder à l'esprit que lorsqu'un ordinateur et un système d'intelligence artificielle ont atteint un tel niveau qui dépasse l'humain dans de nombreuses tâches, cependant, aujourd'hui, même des centres de données les plus complexes, à sa base, super-ordinateurs font des erreurs, ce qui indique sur le fait que vous ne pouvez pas faire confiance aux systèmes sans pilote pour tout 100%.

 

Kostyuchenko Yuriy spécifiquement pour Avia.pro

L'argument est dévoilé - c'est comme le prouver: l'eau est humide, l'huile est le pétrole, etc. et similaire. Est-ce en somme ...
Tout le monde sait depuis longtemps que si le coût du projet est supérieur au coût du logiciel, alors la personne est immédiatement remplacée par un ordinateur. Ou l'auteur ne sait pas que le pilotage des vaisseaux spatiaux est initialement effectué en mode automatique? Une personne est admise à piloter seulement comme une expérience ....
L'ordinateur a volé plus lentement que l'homme pilote. Cette comparaison au niveau des femmes au foyer montre que l'auteur ou ne comprennent pas ce qu'il était sur le point ou dénué de principes qu'il était prêt à écrire de choses payé .... Parce que nous ne savons pas quel genre de programme est basé sur un ordinateur, peut-être qu'il a décidé pendant le vol sont tout alors des problèmes de non-vol?
Il suffit de rappeler comment les femmes au foyer ont discuté de la question: comment un ordinateur choisira-t-il, en cas d'accident, quelqu'un à écraser - une vieille femme, un chat ou des groupes d'enfants? et ne deviendra-t-il pas fou? Alors qu'en réalité cette situation a été résolue il y a longtemps dans les règles de la route. C'est en suivant les règles de l'ordinateur et ira ... en fait de la même manière qu'une personne.
Eh bien, sur le fait que l'ordinateur ne peut pas faire confiance sur 100%. On a l'impression que l'auteur ne s'est pas du tout intéressé aux statistiques des accidents liés au facteur humain, ou simplement préconise la réduction de la population en empêchant la mise en œuvre de technologies progressistes.

Du point de vue, il est possible pour l'IA de remplacer une personne ou pas, je pense que c'est tout à fait. Pratiquement tout, sauf les questions d'évolution. Pour ce faire, il est nécessaire de s'écarter des règles établies, en s'appuyant sur leur expérience et leur expérience des générations précédentes. AI est toujours incapable de le faire. C'est ce qu'il perd à l'homme. Par conséquent, l'appareil avec l'IA a volé plus lentement, il a strictement suivi les règles et ne s'est pas écarté d'un iota d'eux. Il l'a fait plus lent, mais plus sûr qu'un homme. Une fois que l'IA apprend à évoluer, attendez-vous à des problèmes. Quel genre de décision il prend à propos d'une personne, Dieu seul le sait.

Anatoly, la question de l'accident n'est pas vraiment une question de femmes au foyer. C'est un problème très important. Et les règles de la circulation ne résolvent pas cette situation. L'intelligence artificielle devrait prendre une telle décision afin que ni le chat, ni la vieille femme, ni un groupe d'enfants ne soient affectés, idéalement. Même s'il est lui-même détruit. C'est la première loi de la robotique. Il doit mourir lui-même, mais ne pas permettre la mort d'un être vivant. Par conséquent, les systèmes d'intelligence artificielle dans les systèmes d'armement sont très dangereux pour toute l'humanité. La machine ne devrait pas prendre de décision sur la personne avec laquelle vivre, mais sur celle qui doit mourir. En principe! Elle-même doit mourir quand une telle situation se présente. Volontairement, par décision. Et pas autrement!

L'article du début au dernier mot est un non-sens.

page

Blogue et articles

à l'étage