El término ferir se refiere, en su acepción más antigua y en desuso, a la acción de herir o causar daño a un ser vivo.
Este verbo implica romper o abrir las carnes de un animal utilizando un arma u otro instrumento.
Aunque hoy en día su uso es poco común, su significado evoca una imagen de violencia y daño físico, reflejando una realidad que ha sido parte de la historia del lenguaje y la interacción humana.