Je n'ai lu que l'extrait en question dans une étude de texte en anglais cette année, mais jme rappelle =p Donc en gros, en traduisant et en simplifiant...
1. Un robot ne doit pas blesser un humain, ne doit doit pas rester inactif quand un humain est en danger.
2. Un robot doit obéir à un humain, tant que ça n'entre pas en contradiction avec la 1e loi.
3. Un robot doit protéger sa propre existence tant que ça n'entre pas en contradiction avec les 1e et 2e lois.
Est-ce ça ?