Antropocentrismo

Tendencia a considerar el ser humano como centro de todas las cosas, a menudo en detrimento de los animales.

» GLOSARIO