¿Cómo entiendes la palabra "venderse"?
La palabra "vender el cuerpo" se ha utilizado desde la antigüedad, pero pocas personas la entienden con atención. Creo que tiene varios significados: 1. Significa verdaderamente vender el cuerpo, es decir. una transacción en la que uno vende su cuerpo como un artículo a un comprador a un precio determinado 2. Debido a varias razones, uno no puede permitirse la vida de su familia o de sí mismo, y vende todas sus habilidades o fuerza física. es decir Perder la libertad 3 es utilizado principalmente por mujeres para hacer un trato con hombres que no están dispuestas a hacer por dinero, intereses, derechos, etc. Esto es lo que ahora se llama vender sus cuerpos.