En este post os queremos preguntar sobre vuestra opinión: ¿cómo creéis que considera la sociedad al sexo anal? ¿Es todavía algo despreciado y que tiene que ocultarse? ¿O ya lo ha asumido como algo normal?
El sexo anal se ha ido abriendo paso culturalmente en las últimas décadas: ya se habla de ello en películas, series… Muy a menudo es a través de chistes, pero ya está ahí. Y así, poco a poco, la sociedad va asumiendo que el sexo anal es normal, y que hay mucha gente que lo practica.
Es un proceso que antes pasó con el sexo oral, que ya está prácticamente asumido por todos. Pero ¿en qué nivel creéis que está el anal? Por supuesto depende de los países y el entorno, pero ¿creéis que ya la mayoría de la población lo toma como normal?
0 comentarios