Versión impresa

Los cien inventos más importantes de la Historia

Los cien inventos más importantes de la Historia

  • Lista creada por irenegm.
  • Publicada el 09.09.2016 a las 22:02h.
  • Clasificada en la categoría Internacional.
  • La lista SI admite nuevos comentarios.
  • La lista SI admite que sus elementos sean votados.
  • La lista NO admite que otros usuarios añadan nuevos elementos.

Avatar de irenegm

Último acceso 21:35h

Perfil de irenegm

  • Las estadísticas del usuario se mostrarán en los próximos días.

Ver el perfil de irenegm

Acciones de la lista

Estos son los elementos de la lista. ¡Vota a tus favoritos!

FREGONA (1964)

1. FREGONA (1964)

https://www.youtube.com/watch?v=ybAFgaTdVfk

La fregona, lampazo, trapeador, mapo, mopa, trapero, coleto, suape, aljofifa, mocho, lava suelos, trapo de piso es una herramienta para limpiar el suelo en húmedo y suele constar de un palo en cuyo extremo se encuentran unos flecos absorbentes. La fregona se suele entender asociada a un cubo... Ver mas
La fregona, lampazo, trapeador, mapo, mopa, trapero, coleto, suape, aljofifa, mocho, lava suelos, trapo de piso es una herramienta para limpiar el suelo en húmedo y suele constar de un palo en cuyo extremo se encuentran unos flecos absorbentes.
La fregona se suele entender asociada a un cubo provisto de un mecanismo escurridor. Para limpiar el suelo, después de humedecerla y de escurrirla, se restriega contra la superficie que se va a limpiar. Se utiliza frecuentemente también para limpiar líquidos derramados.
La fregona, identificada como «un todo compuesto por un cubo de material plástico, con un escurridor del mismo material que se acopla al cubo y un palo con un mocho con el que se friega el suelo»,1 fue inventada en España en 19642 por Manuel Jalón Corominas (1925 - 2011),3 4 y fue perfeccionándose hasta adquirir el aspecto actual.
Índice [ocultar]
1 Historia
1.1 Historia en España
1.2 Historia general
2 Denominaciones
3 Fregona de esponja
4 Véase también
5 Referencias
6 Enlaces externos
Historia[editar]
1496: Primer uso conocido de un utensilio similar a la fregona: consistía en estambre unido a un palo de madera y se usaba para limpiar las cubiertas de los barcos ingleses.
1837: Jacob Howe patentó un tipo de fregasuelos en 1837.5
1893: Thomas W. Stewart, inventor estadounidense, obtuvo la patente número 499,402 el 13 de junio de 1893 para un nuevo tipo de fijación para una "Mop".6
Historia en España[editar]
Entre 1900 y 1956 se registraron numerosas patentes que describían, con distintas formas, mangos y sistemas de escurrir, una idea para fregar con fibras pegadas a un palo, que se escurren dentro de un cubo, como el modelo de utilidad n.º 34 262 inventado por Julia Montousse Fargues y Julia Rodríguez-Maribona dos avilesinas en 1953, hasta llegar a los modelos patentados entre 1957 y 1964 por el ingeniero riojano Manuel Jalón Corominas.7 8
En 1953, Manuel Jalón Corominas, en su calidad de oficial ingeniero del Ejército del Aire español, es enviado a Estados Unidos para aprender las técnicas de mantenimiento de los primeros aviones a reacción F-86 Sabre adquiridos por España a su nuevo aliado, Estados Unidos. Durante su trabajo en la base aérea de Chanute, al sur de Chicago, pudo observar como los operarios limpiaban el suelo de los hangares utilizando unas mopas o mochos con tiras de algodón los cuales escurrían en cubos metálicos gracias a un sistema de escurrido de rodillos. A su regreso a España, inició en 1956 la fabricación de las primeras unidades inspiradas en el modelo estadounidense (con cubo metálico y rodillos). Las primeras unidades del invento de Manuel Jalón fueron bautizados como aparatos lavasuelos hasta que Enrique Falcón Morellón decidió escribir en las notas del primer pedido (julio de 1957) la palabra fregonas. Posteriormente, en 1964, desarrolló un modelo con escurridor troncocónico que fue registrado como «patente de invención con novedad internacional».9 En ese modelo, el escurrido del mocho se realizaba mediante un cono escurridor encajado en la embocadura del cubo, todo ello construido en plástico.10 Anteriores a este modelo de Manuel Jalón ya existían en los Estados Unidos mopas con cubo donde el escurrido se realizaba por compresión en un cono escurridor.11 Manuel Jalón registró, en 1968, en EE. UU. como patente de invención su cubo escurridor con rodillos accionados por pedal.12
A pesar del intento de atribución de la autoría de la fregona por parte de otras personas, los tribunales españoles han reconocido en diversos pleitos13 14 15 16 que el mérito corresponde única y exclusivamente a Manuel Jalón, ya que el público en general asociaba el nombre de fregona al invento de Manuel Jalón, y no a los aparatos lavasuelos o cubos de otros inventores.
Historia general[editar]
Anterior a la popular fregona, se utilizaba un paño (trapo) de algodón para limpiar (fregar) los pisos. Se solía envolver la escoba con el paño mojado para pasarlo sobre el piso, bien fuera en pisos de losas, hormigón o madera. En otros casos, la persona tenía que arrodillarse o sentarse en el piso para pasar el paño con sus manos, mojarlo en el cubo o recipiente con agua y jabón (o algún producto químico altamente tóxico, que solía utilizarse), exprimirlo y volver a pasarlo. Es por ello que todavía en algunos lugares de Hispanoamérica se le conoce a la acción de limpiar el piso como trapear (de la palabra trapo).
Para el año 1893 existe patentado en los Estados Unidos el diseño de una fregona similar a la que se conoce hoy día. En el caso de Puerto Rico, convertida en colonia norteamericana desde el año 1898, es posible que se haya introducido dicho invento de fabricación industrial a principios del siglo veinte. A partir de ese momento es que pudo haberse llamado mapo, anglicismo (onomatopéyico) de la palabra mop.
Denominaciones[editar]
Commons-emblem-question book orange.svg
Este artículo o sección necesita referencias que aparezcan en una publicación acreditada. Este aviso fue puesto el 14 de noviembre de 2012.
Puedes añadirlas o avisar al autor principal del artículo en su página de discusión pegando: {{sust:Aviso referencias|Fregona}} ~~~~
Recibe diferentes nombres según la región:
Argentina: mopa, lampazo17
Guatemala: trapeador
Chile: trapero, mopa
Colombia: trapero, trapeador o trapeadora
Costa Rica: palo de piso o gancho
Cuba: trapeador, palo de trapear
Ecuador: trapeador
El Salvador: trapeador
España: fregona, mopa (anglicismo de mop)
Aragón: mocho
Castilla: lampazo
Valencia: mocho
Andalucía: aljofifa (argofifa es una variación, que no está en el D.R.A.E)
Honduras: trapeador
México: trapeador
Nicaragua: lampazo17
Panamá: trapeador
Paraguay: palo de repasar
Perú: trapeador
Puerto Rico: mapo (anglicismo de mop)
República Dominicana: suape
Uruguay: lampazo, trapo de piso, aunque en este país se prefiera el uso del secador, elemento totalmente distinto.
Venezuela: coleto, mopa o lampazo en los estados Zulia y Falcón
Existe también una mopa seca, diseñada para recoger polvo. Suelen tener cabezas más anchas e hilos más cortos que las fregonas húmedas.
Fregona de esponja[editar]
La fregona de esponja tiene forma similar al secador aunque el elemento que friega en lugar de ser una goma es una esponja muy absorbente de PVA (acetato de polivinilo). Esta herramienta suele llevar fijado al mango un mecanismo que sirve para escurrir el agua que va absorbiendo la esponja. Por ello esta fregona no suele ir acompañada de un cubo con escurridor y el agua se suele escurrir directamente en el fregadero, lavabo, ducha, bañera o inodoro.

Ha recibido 5451 puntos

Vótalo:

VIAGRA (1996)

2. VIAGRA (1996)

https://www.youtube.com/watch?v=OQjXnyRWNzQ

El Citrato de sildenafilo (compuesto UK-92,480), vendido bajo la marca Viagra, Revatio y otros, es un fármaco utilizado para tratar la disfunción eréctil y la hipertensión arterial pulmonar (HPP). Originalmente fue desarrollado por científicos británicos y luego llevado al mercado por la... Ver mas
El Citrato de sildenafilo (compuesto UK-92,480), vendido bajo la marca Viagra, Revatio y otros, es un fármaco utilizado para tratar la disfunción eréctil y la hipertensión arterial pulmonar (HPP). Originalmente fue desarrollado por científicos británicos y luego llevado al mercado por la compañía farmacéutica Pfizer.1 Actúa mediante la inhibición de la fosfodiesterasa tipo 5 específica de GMP cíclico (PDE5), una enzima que promueve la degradación del GMPc, que regula el flujo de sangre en el pene. Desde su disponibilidad en el año 1998, el sildenafilo ha sido el principal tratamiento para la disfunción eréctil, sus principales competidores en el mercado son el vardenafilo (Levitra) y tadalafil (Cialis).
Índice [ocultar]
1 Historia
2 Mecanismo de acción
3 Efectos farmacológicos e indicaciones
3.1 Disfunción sexual
3.2 Hipertensión pulmonar
3.3 Edema pulmonar de altitud
4 Dosis
5 Efectos secundarios
6 Contraindicaciones
7 Interacciones
8 Precauciones en las interacciones
9 Detección en fluidos biológicos
10 Análogos
11 Implicaciones sociales y utilización no médica
11.1 Uso recreativo
11.2 Uso por deportistas
11.3 Mitos
12 Presentaciones del sildenafilo
13 Caducidad de la patente
14 Referencias
15 Enlaces externos
16 Véase también
Historia[editar]
Fue inicialmente diseñado para su uso en la hipertensión arterial y la angina de pecho. Los primeros ensayos clínicos fueron realizados en el Hospital de Morriston, en Swansea (Gales).2 Durante los estudios de fase I, realizados bajo la dirección de Ian Osterloh, se sugirió que la droga tenía un ligero efecto en la angina, pero que podía inducir notables erecciones de pene.3 4
Por lo tanto Pfizer decidió comercializarlo para tratar la disfunción eréctil, en lugar de la angina. El fármaco fue patentado en 1996, y aprobado para su uso en disfunción eréctil por la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) el 27 de marzo de 1998. Así se convirtió en la primera pastilla aprobada para tratar la disfunción eréctil en los Estados Unidos, y allí se ofreció a la venta el mismo año.5 Inmediatamente se convirtió en un gran éxito: las ventas anuales de Viagra en el período 1999-2001 superaron los mil millones de dólares.[cita requerida]
La prensa británica presentó a Peter Dunn y Albert Wood, investigadores de Pfizer, como inventores del fármaco, una afirmación con la que la empresa se muestra en desacuerdo alegando que, aunque sus nombres aparecen al registrar la patente, esto es sólo necesario como requisito del registro, siendo la empresa la propietaria de la patente.6
A pesar de que el sildenafilo está disponible únicamente por prescripción médica, fue anunciada directamente a los consumidores en la TV de EE. UU. (recomendado por el ex senador de EE. UU. Bob Dole y el astro de fútbol Pelé). Numerosos sitios de Internet ofrecen Viagra para su venta después de una «consulta en línea» (un mero cuestionario de la red).7 El nombre «Viagra» se ha hecho tan famoso que muchos falsos afrodisíacos ahora se hacen llamar «Viagra herbal» o son presentados en tabletas azules imitando la forma y el color del producto de Pfizer. Viagra también se conoce informalmente como «la pastilla azul» o «vitamina uve» entre otros muchos diferentes nombres.8
En el año 2000, las ventas de Viagra coparon el 92% del mercado de píldoras prescriptivas para la disfunción eréctil.9 En 2007, sus ventas descendieron hasta el 50% debido a la competencia con otros fármacos como el tadalafilo (comercializado como Cialis) y el vardenafilo (Levitra),10 así como con sus propias falsificaciones y copias; y de la aparición de testimonios de pacientes que sufrían pérdida de visión al usar inhibidores de la PDE5 (ver la sección Mecanismo de acción).11 12
En febrero de 2007, la empresa Boots the Chemist anunció que había realizado un estudio para valorar la venta directa en farmacias sin receta médica. El estudio se había hecho en Mánchester (Inglaterra) y se había dirigido a varones con edades entre los 30 y 65 años, que compraron hasta cuatro tabletas después de una consulta con un farmacéutico.13
Las patentes mundiales del citrato de sildenafilo vencieron entre 2011 y 2013.14 La patente mantenida por Pfizer en el Reino Unido para el uso de inhibidores de la fosfodiesterasa 5 (PDE5) como tratamiento de la impotencia fue invalidada en el 2000 por que se estimó que pretendía tener la patente de todo el grupo farmacéutico a partir de un producto de la familia. Esta decisión se mantuvo en una apelación en 2002. También se verificó que en Argentina Pfizer no pudo poner el nombre Viagra ya que un laboratorio argentino tenía una droga llamada VIAGRAN y por ser casi iguales de nombre le impidieron que le pusieran Viagra; por eso es que en Argentina se llama Sidenafil.15 16
Mecanismo de acción[editar]
Parte del proceso fisiológico de la erección incluye al sistema nervioso parasimpático causando la liberación de óxido nítrico (NO) en el cuerpo cavernoso del pene. El NO se une a los receptores de la enzima guanilato ciclasa, lo que deriva en niveles aumentados de guanosín monofosfato cíclico (GMPc), llevando a una relajación del músculo liso del cuerpo cavernoso, mediante vasodilatación de las arterias helicinas del interior del pene. La vasodilatación incrementa el flujo de sangre en el interior del pene, causando así la erección.17 Robert F. Furchgott ganó el Premio Nobel de Fisiología y Medicina en 1998 por el descubrimiento y el análisis del factor de relajación derivado del endotelio (EDRF en siglas en inglés: endothelium-derived relaxing factor), que posteriormente fue identificado como óxido nítrico o algún otro compuesto relacionado muy cercano.
El sildenafilo es un potente y selectivo inhibidor específico de la fosfodiesterasa tipo 5 (PDE5) que es responsable de la degradación del cGMP en el cuerpo cavernoso. La estructura molecular del sildenafilo es similar a la del cGMP compitiendo por la unión de éste a PDE5. El resultado es que el cGMP permanece más tiempo en el interior del pene, produciéndose erecciones más potentes y mantenidas. Los principios activos como el tadalafilo (Cialis®) y el vardenafilo (Levitra®) actúan siguiendo el mismo mecanismo. Sin estimulación sexual, y por ende, en ausencia de activación del sistema NO/cGMP, estos fármacos no causan una erección.
El sildenafilo es metabolizado por las enzimas hepáticas y excretado tanto por el hígado como por los riñones. Tomado con una dieta altamente grasa, su tiempo de absorción se incrementa en más de una hora y su concentración máxima en el plasma sanguíneo se reduce en dos terceras partes, disminuyendo considerablemente por tanto sus efectos.18
Efectos farmacológicos e indicaciones[editar]
Disfunción sexual[editar]
El citrato de sildenafilo es un potente vasodilatador cuyo uso más conocido es para el tratamiento de la disfunción eréctil. Su uso se ha estandarizado para el tratamiento de este problema en todos los ámbitos, incluyendo la diabetes.19
Las personas en tratamiento con antidepresivos pueden experimentar disfunción sexual, bien como resultado de su enfermedad, bien como resultado del tratamiento recibido. Un estudio publicado en el año 2003 ha mostrado que el sildenafilo permite la recuperación de la disfunción en varones en estas condiciones.20 Los mismos investigadores confirmaron un estudio equivalente en mujeres publicado en 199921 que determinó que este fármaco no es capaz de mejorar la disfunción sexual en pacientes mujeres que han sido tratadas con antidepresivos.22
Hipertensión pulmonar[editar]
Al igual que en la disfunción eréctil, el citrato de sildenafilo es también efectivo en la poco frecuente enfermedad de la hipertensión arterial pulmonar. El fármaco relaja la pared arterial, permitiendo la disminución de la resistencia y presión arteriales. De esta manera, reduce la carga de trabajo del ventrículo derecho del corazón y disminuye la probabilidad de fallo cardíaco asociado a este ventrículo. Dado que la enzima PDE5 se encuentra principalmente en el endotelio del músculo liso de los pulmones y el pene, el fármaco actúa selectivamente en estas dos áreas sin inducir vasodilatación en otras áreas del cuerpo.
Pfizer, la empresa productora de la principal forma comercial del sildenafilo, la Viagra®, consiguió la aprobación por la Administración de Drogas y Alimentos de EE.UU. de otra forma, el Revatio®, para el tratamiento de esta enfermedad pulmonar en el año 2005, uniéndose así al bosentan y las terapias basadas en prostaciclina, en el tratamiento de esta enfermedad.23
Edema pulmonar de altitud[editar]
El sildefanilo ha sido usado para el tratamiento del edema pulmonar de altitud asociado al mal de altura que puede ser sufrido por los alpinistas,24 25 habiendo llegado a ser utilizado cuando el descenso ha debido retrasarse por alguna circunstancia.26 Aún no se ha estudiado ampliamente su efecto para el tratamiento de esta patología.
Dosis[editar]

Caja y pastillas del medicamento Viagra.
Como tratamiento de la disfunción eréctil, la dosis usualmente recomendada es de 100 mg, no debiendo superar los citados 100 mg, desaconsejándose la toma de más de una dosis diaria. Lo más habitual es el consumo de 50-100 mg 30 minutos antes de las relaciones sexuales.27
Frente a la forma de absorción oral de absorción gástrica, cuyo efecto máximo se alcanza una hora después de la ingesta, se ha desarrollado una forma masticable de acción más rápida, cuyo efecto máximo se alcanza quince minutos después de la toma.
La dosis para el tratamiento de la hipertensión arterial pulmonar es de 20 mg tres veces al día.
Efectos secundarios[editar]
Pueden presentarse:28
Cefalea
Rubor facial
Adormecimiento de las extremidades
Dispepsia
Visión borrosa
Erupción cutánea
Palpitaciones
Fotofobia
Algunos usuarios de sildefanil han informado de la apreciación de coloración azul en la visión (cianopsia), así como de visión borrosa o pérdida de visión periférica.[cita requerida] En julio de 2005, la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) descubrió que este fármaco podía producir discapacidades visuales en casos excepcionales,29 mientras que otros estudios lo han relacionado también con la neuropatía óptica isquémica anterior.30 31 32 33 34 35
Se han documentado efectos secundarios poco frecuentes pero severos gracias a la vigilancia seguida del medicamento una vez fue comercializado. Algunos de estos efectos secundarios incluyen priapismo, hipotensión severa, infarto de miocardio, arritmia ventricular, infarto cerebral, incremento de la presión interna del ojo y pérdida repentina de la capacidad auditiva.28 Como resultado de estos estudios, en octubre de 2007, se incrementaron las advertencias sobre los riesgos de los inhibidores de PDE5, tanto en el caso del sildenafilo, como en otros medicamentos relacionados.36
Contraindicaciones[editar]
Dado que algunas enfermedades y ciertas medicaciones combinadas con el sildenafilo conllevan graves riesgos para la salud, es necesario que éste sea recetado por un médico que evalúe si el paciente puede tomarlo. El sildenafilo, de este modo, sólo puede ser adquirido con receta médica.
Las contraindicaciones incluyen:
Pacientes que están tomando óxidos nítricos, nitritos y nitratos orgánicos, como el trinitrato de glicerina (nitroglicerina), nitroferricianuro de sodio, nitrato de amilo (poppers), etc.37
Pacientes en quienes la relación sexual es desaconsejable debido a factores de riesgo cardiovascular.
Insuficiencia hepática o renal severas.
Hipotensión arterial.
Infarto de miocardio reciente.
Patología de retina degenerativa de tipo hereditario, incluidos desórdenes fosfodiasterásicos retinianos.
Interacciones[editar]
Los pacientes en tratamiento con inhibidores de proteasas, como aquellos contagiados de VIH, deben ser precavidos en el uso de este medicamento. Los inhibidores de proteasas inhiben el metabolismo del sildenafilo, permaciendo sus niveles altos en sangre durante más tiempo, con lo que se incrementa la incidencia de efectos secundarios severos. Se recomienda, por tanto, que estos pacientes limiten el uso de este medicamento a no más de una dosis de 25 mg cada 48 horas.38
El uso conjunto de sildenafilo y bloqueadores alfa puede disminuir la presión arterial, salvo si son administrados con una diferencia de 4 horas.39
Precauciones en las interacciones[editar]
Alcohol: Junto a este medicamento se puede tomar alcohol con moderación, pues el exceso puede reducir sus efectos. En algunos casos conlleva otros efectos que ponen en riesgo la salud.
Alimentos: Las comidas muy pesadas pueden reducir su eficacia, sobre todo las comidas ricas en grasas.
Conducir: Puede causar somnolencia, por lo que no se recomienda conducir vehículos o manejar maquinaria pesada inmediatamente después de tomarlo.
Mujeres: Las mujeres no deben tomarlo, ya que su uso sólo ha sido aprobado en el caso de hombres con disfunción eréctil.
Jóvenes: En la actualidad existen personas que hacen un uso inapropiado del fármaco tomando dosis sin necesitarlas, sobre todo los jóvenes. Debe evitarse el consumo de fármacos no recetados.
Embarazo: Tener en cuenta que el sildenafilo no es un afrodisíaco ni ayuda a tener mayor probabilidad de que una mujer quede embarazada. Sólo tiene efecto sobre las erecciones.
Detección en fluidos biológicos[editar]
El silfenafilo y su principal metabolito activo, el N-desmetilsildenafilo, pueden ser cuantificados en el plasma, suero o sangre para realizar estudios del estado farmacocinético en aquellos sujetos que han recibido la droga terapéuticamente, o bien para confirmar el diagnóstico forense en posibles envenenamientos o sobredosis críticas con resultado de fallecimiento.40
Análogos[editar]
El acetildenafilo es un análogo estructural del sildenafilo, actuando también como inhibidor de la fosfodiesterasa de tipo 5. Este compuesto es encontrado en varios productos herbales afrodisíacos que se venden sin receta médica. Este análogo no ha sufrido los rigurosos controles que los medicamentos habituales pasan antes de comercializarse, no estando ampliamente determinados sus efectos ni caracterizadas sus posibles reacciones adversas o efectos secundarios.41 En algunos países se han emprendido acciones legales contra su uso, habiendo sido retirado del mercado en algunos casos.42
Implicaciones sociales y utilización no médica[editar]
Uso recreativo[editar]
La popularidad del sildenafilo entre los varones jóvenes ha crecido a lo largo del tiempo.43 El nombre comercial del sildenafilo, «Viagra», ha sido integrado extensamente en la cultura popular, y el conocimiento de sus efectos ha llevado a su uso recreativo.44 Las razones detrás de este uso incluyen la creencia de que la droga aumenta la libido o mejora el desarrollo del acto sexual.44 Los estudios de los efectos del fármaco cuando se usa sin prescripción médica son limitados, pero sugieren que tiene poco efecto cuando es utilizado por aquellos que no sufren disfunción eréctil o entre aquellas parejas sexuales estables. Otros estudios demuestran que una dosis de 25 mg no produce un cambio significativo en la calidad de la erección, pero puede reducir el tiempo refractario posterior a la eyaculación.45 En el mismo estudio se documentó un considerable efecto placebo en el grupo control.45
El uso recreativo del sildenafilo y otros inhibidores de la PDE5 es particularmente común entre consumidores de drogas no legales.46 47 Este fármaco se emplea en ocasiones para contrarrestar el efecto de estas sustancias,44 como el MDMA (3,4-metilendioximetanfetamina o éxtasis), otros estimulantes u opiáceos en un intento de compensar el efecto secundario de disfunción eréctil que producen. La mezcla con el nitrato de amilo es particularmente peligrosa y potencialmente fatal.44
Uso por deportistas[editar]
Se ha documentado que algunos profesionales del deporte usan drogas como Viagra en la creencia de que mejorarían su irrigación sanguínea, mejorando su musculatura y así, su rendimiento deportivo.48 Pero el sildenafilo es exclusivamente vasodilatador: no mejora la irrigación.
Mitos[editar]
A diferencia de lo que muchos creen, el sildenafilo no actúa en ausencia de estimulación sexual. Su efecto es exclusivamente vasomotor y por lo tanto solamente está indicado para el tratamiento de la disfunción eréctil de este origen.
Presentaciones del sildenafilo[editar]
Este inhibidor de la PDE5 es muy efectivo contra los problemas de erección. Por tal motivo, las grandes compañías farmacéuticas han elaborado un gran número de medicamentos en base al sildenafilo: viagra genérico, viagra soft, viagra super active, viagra sublingual, viagra professional, viagra cápsulas, viagra super force, kamagra, kamagra oral jelly, caverta, suhagra, eriacta, hard on y hard on oral jelly. Existen muchos otros medicamentos y presentaciones del sildenafilo.
Caducidad de la patente[editar]
Desde el 23 de junio de 2013 el viagra hecho a base del sildenafilo ha dejado de pertenecer exclusivamente a la empresa descubridora Pfizer. En consecuencia, este medicamento puede ser creado por otras compañías farmacéuticas y comercializado masivamente con el nombre de genérico de "viagra" y con la misma composición activa (sildenafilo), sin transgredir ninguna patente. Ahora todo medicamento genérico basado en el citrato de sildenafilo puede ser llamado viagra sin tener que responder a las autoridades con competencia sobre la patente. La empresa patentadora ya no puede reclamar derecho alguno sobre el viagra debido a la caducidad de su patente.

Ha recibido 2319 puntos

Vótalo:

FUEGO (HACE 1 MILLÓN DE AÑOS)

3. FUEGO (HACE 1 MILLÓN DE AÑOS)

https://www.youtube.com/watch?v=bWzpjraqw_8

Se llama fuego al conjunto de partículas o moléculas incandescentes de materia combustible, capaces de emitir luz visible, producto de una reacción química de oxidación violenta. Las llamas son las partes del fuego que emiten luz visible, mientras que el humo son físicamente las mismas pero que... Ver mas
Se llama fuego al conjunto de partículas o moléculas incandescentes de materia combustible, capaces de emitir luz visible, producto de una reacción química de oxidación violenta. Las llamas son las partes del fuego que emiten luz visible, mientras que el humo son físicamente las mismas pero que ya no la emiten.
Índice [ocultar]
1 Comportamiento fisicoquímico
2 Evolución de la concepción científica del fuego
3 Teoría de la combustión de Lavoisier
4 Mitología sobre el fuego
4.1 Significado simbólico e iconología
5 Peligros
6 Véase también
7 Referencias
8 Enlaces externos
Comportamiento fisicoquímico[editar]
Esta fuerte reacción química de oxidación es un proceso exotérmico, lo que quiere decir que, al mismo tiempo, desprende energía en forma de calor al aire de su alrededor. El aire que se encuentra alrededor de las moléculas o partículas calientes disminuye la densidad y literalmente tiende a flotar sobre el aire más frío (convección). En el caso particular del fuego de estado sólido, el aire caliente viaja hacia arriba a tal velocidad que empuja aún partículas pesadas de combustible en la misma dirección (aún calientes y brillantes), las cuales van bajando de temperatura al igual que el aire circundante, dejando de brillar y tornándose generalmente de un color negro como el carbón; el aire, al enfriarse, empieza a bajar de velocidad, a tal punto que ya no puede empujar las partículas para arriba y estas empiezan (si pesan más que el aire) a levitar sin subir, para luego caer de nuevo a tierra.
Evolución de la concepción científica del fuego[editar]
Véase también: fuego (elemento)
En la antigüedad clásica el fuego fue uno de los cuatro elementos clásicos, junto con el agua, la tierra y el aire. Estos cuatro elementos representaban las cuatro formas conocidas de la materia y eran utilizados para explicar diferentes comportamientos de la naturaleza. En la cultura occidental el origen de la teoría de los cuatro elementos se encuentra en los filósofos presocráticos de la Grecia clásica, y desde entonces ha sido objeto de numerosas obras de expresión artística y filosófica, perdurando durante la Edad Media y el Renacimiento e influyendo profundamente en el pensamiento y la cultura europeos. Paralelamente, el hinduismo y el budismo habían desarrollado concepciones muy parecidas.
En la mayoría de estas escuelas de pensamiento se suele añadir un quinto elemento a los cuatro tradicionales, que se denomina, alternativamente, idea, vacío, éter o quintaesencia (literalmente "la quinta esencia").
El concepto de los elementos clásicos continuó vigente en Europa durante la Edad Media, debido a la preeminencia de la visión cosmológica aristotélica y a la aprobación de la Iglesia católica del concepto del éter que apoyaba la concepción de la vida terrenal como un estado imperfecto y el paraíso como algo eterno.
El uso de los cuatro elementos en la ciencia se abandonó en los siglos XVI y XVII, cuando que los nuevos descubrimientos sobre los estados de la materia superaron la concepción clásica.
En el siglo XVII, Johann Joachim Becher propuso una versión particular de la teoría de los cuatro elementos: el papel fundamental estaba reservado a la tierra y al agua, mientras que el fuego y el aire eran considerados como simples agentes de las transformaciones. Todos los cuerpos, tanto animales como vegetales y minerales, estaban formados según Becher por mezclas de agua y tierra. Defendió también que los verdaderos elementos de los cuerpos debían ser investigados mediante el análisis, y, en coherencia, propuso una clasificación basada en un orden creciente de composición. Becher sostenía que los componentes inmediatos de los cuerpos minerales eran tres tipos diferentes de tierras, cada una de ellas portadora de una propiedad: el aspecto vítreo, el carácter combustible y la fluidez o volatilidad. La tierra, que denominó terra pinguis, se consideraba portadora del principio de la inflamabilidad. Su nombre podría traducirse como tierra grasa o tierra oleaginosa, que en la alquimia se conoce con el nombre de azufre, aunque Becher empleó también otras expresiones para designarla; entre ellas, azufre flogisto (este sustantivo derivado del griego phlogistos, que significa "inflamable"). Finalmente fue la palabra flogisto la que acabó imponiéndose, gracias sobre todo a la labor del más efectivo defensor de sus ideas, Georg Ernst Stahl.
Teoría de la combustión de Lavoisier[editar]
La teoría del flogisto se mantuvo hasta los años ochenta del siglo XVIII, cuando Antoine Laurent Lavoisier, considerado el padre de la química moderna, diseñó un experimento para contrastarla. Lavoisier colocó una pequeña cantidad de mercurio sobre un sólido flotando sobre agua, lo cerró bajo una campana de vidrio y provocó la combustión del mercurio. Según la teoría del flogisto, el cuerpo flotante debería estar menos sumergido tras la combustión, ya que la cantidad restante de sustancia junto a la ceniza debería pesar menos que la inicial y el volumen de aire dentro de la campana debería aumentar como efecto de la asimilación del flogisto, y con ello el nivel de líquido cerrado debería ser más bajo que al comienzo. El resultado del experimento contradijo los resultados esperados según esta teoría. Lavoisier interpretó correctamente la combustión eliminado el flogisto en su explicación. Las sustancias que arden se combinan con el oxígeno del aire, por lo que ganan peso. El aire que está en contacto con la sustancia que se quema pierde oxígeno y, por tanto, también volumen.
Con Lavoisier los químicos abandonaron progresivamente la teoría del flogisto y se apuntaron a la teoría de la combustión basada en el oxígeno.
Mitología sobre el fuego[editar]

En la mitología griega, el Etna era el volcán en cuyo interior se situaban las fraguas de Hefesto, que trabajaba en compañía de cíclopes y gigantes. El monstruoso Tifón yacía debajo de esta montaña, lo que causaba frecuentes terremotos y erupciones de humo y lava.

Tragafuegos indio en Bélgica. Para que la llamarada se produzca se sopla el combustible a través de la llama en presencia de oxígeno.
Desde que el humano comenzó a dominar el fuego, se presentó un problema importante: encenderlo. De ahí que las religiones se convirtieran en las guardianas del fuego: mantener un fuego permanente era importante por si los fuegos domésticos se apagasen, y de ahí que todas las religiones, todavía ahora, mantengan un fuego encendido en el santuario.

Inicio del fuego de forma natural por la caída de un rayo en un tronco, provocando un incendio forestal.
El culto del fuego siguió al que se tributaba al Sol y casi todos los pueblos lo adoraron como el más noble de los elementos y como una viva imagen del astro del día. Los caldeos lo tenían por una deidad suprema. Sin embargo, en Persia es donde se extendió su culto casi exclusivamente. Se encontraban por todas partes cercados cerrados con muros y sin techo, dentro los cuales, se encendía asiduamente el fuego en donde el pueblo devoto venía a ciertas horas para rogarle. Los grandes señores se arruinaban arrojando en él esencias preciosas y flores odoríferas, privilegio que miraban como uno de los mejores derechos de la nobleza. Estos templos descubiertos fueron conocidos de los griegos con el nombre de Pyreia (Πυραία) o Pyrateia (Πυραταία). Los viajeros modernos hablan también de ellos como de los más antiguos monumentos del culto del fuego. Cuando un rey de Persia estaba agonizando, se apagaba el fuego en las principales ciudades del reino y no se volvía a encender hasta después de la coronación de su sucesor. Estos pueblos se imaginaban que el fuego había sido traído del cielo y puesto sobre el altar del primer templo que Zoroastro había mandado edificar en la ciudad de Xis, en la Media. Estaba prohibido arrojar a él nada que no fuese puro, llegando a tal punto la superstición que nadie osaba mirarlo atentamente. En fin para más imponer, los sacerdotes lo conservaban secretamente y hacían creer al pueblo que era inalterable y se alimentaba de sí mismo. Hyde ha creído que este culto tenía por único objeto representar al Ser Supremo.
Sea lo que fuere, esta costumbre pasó a Grecia. Ardía un el sagrado en los templos de Apolo en Atenas y en Delfos, en el de Ceres en Mautíuaa, en el de Minerva en el de Júpiter Ammon, y en las pritaneas de todas las ciudades griegas, donde ardían continuamente las lámparas cuidando muy particularmente que no se apagasen. Los romanos imitadores de los griegos adoptaron este culto y Numa fundó un colegio de vestales, cuyas funciones consistían en conservar el fuego sagrado. Esta religión subsistió entre los guebros o parsos, como también en muchos pueblos de América, entre otros, en Virginia. Cuando estos pueblos volvían de alguna expedición militar o habían salido felizmente de un peligro inminente, encendían un gran fuego y atestiguan su alegría danzando a su alrededor con una calabaza o campanilla en la mano, como dando gracias a este elemento por haberles salvado la vida.
Jamás empiezan sus comidas sin haber arrojado antes al el fuego primer bocado a modo de una ofrenda todas las tardes los encienden cantando y danzando a su alrededor.
El fuego es igualmente una de las principales divinidades de los tártaros. No permiten acercar a su territorio a ningún extranjero, sin que antes se haya purificado pasando por entre dos hogueras. Evitan con gran cuidado meter en el fuego un cuchillo ni aún tan solo tocarlo con este instrumento. Sería un crimen mayor astillar la madera con hacha cerca las llamas. Antes de beber tienen la costumbre de volverse hacia al medio día que es el lado que, según ellos, corresponda el fuego, en honor del cual edifican también sus cabañas con la puerta que mire a esta parte. Se construía expresamente una cabaña en el lugar en que estaba acampado el emperador de Monomotapa, en la cual se encendía un el que se conservaba con un cuidado religioso.
Los antiguos africanos tributaban los honores divinos o este elemento y mantenían en sus templos un el eterno.
Los yakouts, población de Siberia, creen que existe en el fuego, un ser a quien atribuyen el poder de dispensar los bienes y los males y le ofrecen sacrificios perpetuos. Los indios vecinos de las orillas de Columbia miraban el fuego como un ser poderoso y terrible. Le ofrecían constantemente sacrificios y le suponían igualmente árbitro del bien y del mal. Buscaban su apoyo porque solo él podía interceder con su protector alado y procurarles todo lo que deseaban como hijos varones, esto es, una pesca y una caza abundante, en una palabra todo lo que a su modo de ver constituía la riqueza y el bienestar.
Los chinos que habitan los confines de Siberia reconocen un dios del fuego. Durante la residencia de M. Pailas en Maiinatschiu, se pegó el en la población; las llamas devoraban muchas casas y sin embargo, ningún habitante procuraba atajarlo. Todos permanecían alrededor del incendio en una consternación inactiva; algunos arrojaban tan solo por intervalos gotas de agua al el para apaciguar al dios, que decían, había escogido sus habitaciones por un sacrificio. Si los rusos no hubiesen extinguido el incendio, toda la ciudad hubiera quedado reducida a cenizas.
Significado simbólico e iconología[editar]

Fuego en la ceremonia de la cena del solsticio de invierno (Muy Resp.'. Gr.'. Log.'. Nacional Mexicana "Independencia No. 2")
Este elemento tuvo altares, sacerdotes y sacrificios en muchísimas comunidades del planeta. Los romanos lo representaban bajo la figura de Vulcano en medio de los cíclopes. Una vestal cerca de un altar sobre el cual arde el fuego sagrado o una mujer teniendo un vaso lleno de él con una salamandra a sus pies son también símbolos por medio de los cuales los antiguos representaban el fuego. Cesare Ripa y Gravelot han juntado a estos emblemas la presencia del Sol, principio del calor y de la luz, y el fénix, que muere y renace en este elemento; expresión jeroglífica de la opinión de los filósofos que creían que el mundo sería consumido algún día por las llamas para renacer más brillante y perfecto.1
La masonería también incluye el fuego entre sus símbolos: es uno de los cuatro elementos que, al igual que en las culturas de la Antigüedad, son presencia permanente en el lenguaje y en los trabajos de las logias. La masonería toma el significado simbólico antiguo del fuego y reconoce su doble naturaleza: creación e iluminación, por un lado, y destrucción y purificación, por el otro.2
Peligros[editar]

Un incendio en una casa de Nueva Orleans, tras el paso del Huracán Katrina en 2005.
El fuego conlleva un conjunto de peligros, el primero y más evidente son las quemaduras. También otros como la intoxicación por inhalación de humo.
En el apartado de psicología está la piromanía, que se define como una enfermedad en la que una persona siente la necesidad de quemar algo y cuanto más grande sea el fuego mejor (para él). Esto ha provocado incendios forestales intencionales.

Ha recibido 2315 puntos

Vótalo:

RUEDA (3500 a.C)

4. RUEDA (3500 a.C)

https://www.youtube.com/watch?v=nwK6Se6JEqE

La rueda es una pieza mecánica circular que gira alrededor de un eje. Puede ser considerada una máquina simple, y forma parte del conjunto denominado elementos de máquinas. Es uno de los inventos fundamentales en la Historia de la humanidad, por su gran utilidad en la elaboración de alfarería... Ver mas
La rueda es una pieza mecánica circular que gira alrededor de un eje. Puede ser considerada una máquina simple, y forma parte del conjunto denominado elementos de máquinas.
Es uno de los inventos fundamentales en la Historia de la humanidad, por su gran utilidad en la elaboración de alfarería, y también en el transporte terrestre, y como componente fundamental de diversas máquinas. El conocimiento de su origen se pierde en el tiempo, y sus múltiples usos han sido esenciales en el desarrollo del progreso humano.
Índice [ocultar]
1 Restos arqueológicos
2 Véase también
3 Notas y referencias
3.1 Notas
3.2 Referencias
4 Enlaces externos
Restos arqueológicos[editar]
En febrero de 2003, en unos pantanos 22 km al sur de Liubliana, capital de Eslovenia, se halló una rueda cuya antigüedad data de entre el 3100 a. C.-3350 a. C.). Se la halló junto con su eje; mide 72 cm de diámetro y está hecha de madera de fresno, mientras que el eje, que giraba junto con las ruedas, era de roble, más duro.1 Por otro lado, en el llamado Estandarte de Ur, proveniente de la ciudad de Ur en la Mesopotamia meridional, que data de 2500 a. C. aproximadamente, se representa un carro tirado por onagros, la representación más antigua conservada de la rueda como elemento propulsor.

Rueda maciza de madera encontrada en Blair Drummond. Primera evidencia de transporte rodado en Gran Bretaña.
Tres partes de una rueda maciza de madera se encontraron en Blair Drummond Moss (Valle del Forth, Escocia). Son la evidencia más temprana de transporte rodado en Gran Bretaña al haberse datado en el 1255 a. C.nb 1 3 4
La rueda, seguramente, merece un lugar de honor en cualquier lista de grandes inventos. Una civilización industrializada es inconcebible sin ella. Su invención era tal vez inevitable, pero se tardó bastante en aparecer al lado del ser humano. Muchas civilizaciones, incluyendo los incas y los aztecas se las arreglaban bastante bien sin ruedas. La más antigua evidencia del uso de la rueda (un pictograma de Sumeria, el moderno Irak) data del año 3500 antes de Cristo. El invento se difundió rápidamente en el mundo Occidental.

Ha recibido 2079 puntos

Vótalo:

ESCRITURA (4000 a.C)

5. ESCRITURA (4000 a.C)

https://www.youtube.com/watch?v=3f_k9W3wsdw

La escritura es un sistema de representación gráfica de un idioma, por medio de signos trazados o grabados sobre un soporte. En tal sentido, la escritura es un modo gráfico típicamente humano de transmitir información. Como medio de representación, la escritura es una codificación sistemática... Ver mas
La escritura es un sistema de representación gráfica de un idioma, por medio de signos trazados o grabados sobre un soporte. En tal sentido, la escritura es un modo gráfico típicamente humano de transmitir información.
Como medio de representación, la escritura es una codificación sistemática mediante signos gráficos que permite registrar con gran precisión el lenguaje hablado por medio de signos visuales regularmente dispuestos; obvia excepción a esta regla es la bastante moderna escritura Braille cuyos signos son táctiles. La escritura se diferencia de los pictogramas en que estos no suelen tener una estructura secuencial lineal evidente. Existen dos principios generales en la escritura, de un lado la representación mediante logogramas que pueden representar conceptos o campos semánticos y de otro la codificación mediante grafemas que representan sonidos o grupos de sonidos (pudiéndose distinguir entre sistemas puramente alfabéticos, abugidas, silábicos o mixtos). Las escrituras egipcia y china combinan ambos tipos de principios (logramas y grafemas), mientras que las escrituras en alfabeto latino son puramente grafémicas.
Las escrituras jeroglíficas son las más antiguas de las escrituras propiamente dichas (por ejemplo; la escritura cuneiforme fue primeramente jeroglífica hasta que a ciertos jeroglifos se les atribuyó un valor fonético) y se observan como una transición entre los pictogramas y los ideogramas. La escritura jeroglífica fue abandonada en el período helenizante de Egipto. En la actualidad la escritura china y japonesa conservan algunos logogramas combinados con signos cuya interpretación es puramente fonética. La mayor parte de las escrituras del mundo son puramente grafémicas, así las escrituras románicas (basadas en el alfabeto latino), arábigas (basadas en el alfabeto arábigo), cirílicas (basadas en el alfabeto griego), hebraicas (basadas en el alfabeto hebreo), helénicas (basadas en el alfabeto griego), indias (generalmente basadas en el devanāgarī) y en mucha menor medida las escrituras alfabéticas armenias, etiópicas (abugidas basadas en el ghez o ge'ez), coreanas, georgianas, birmanas, coptas, etc. Los alfabetos glagolíticas y la escritura gótica así como la pahlavi y zend usadas en lenguas hoy desaparecidas.
Aunque de las escrituras alfabéticas quizás la primera haya sido la escritura protosinaítica, documentada entre los siglos XVIII y XVI a. C., la primera escritura alfabética en stricto sensu parece haber sido la escritura fenicia. Esta —al igual que sus inmediatas derivadas— es del tipo abyad, es decir solo constaba de consonantes, el método de escritura abyad también se encuentra en otras como en la escritura aramea, la escritura hebrea basada en el alefbet o álef-bet, y la escritura arábiga, si bien la escritura hebrea precisó el valor de los fonemas utilizando el sistema de puntos diacríticos llamado masorético por el cual diversos puntos en relación a cada grafema tienen la función de vocales, algo semejante ocurre con el alifato o alfabeto árabe.
La escritura fenicia fue modificada y adaptada por los griegos, a los griegos se atribuye la notación explícita de las vocales (concretamente usaron algunos signos consonánticos del fenicio sin equivalente en griego como signos para notar las vocales). Aunque es de notar que antes del sistema clásico de alfabeto griego, en el espacio geográfico que luego sería helénico existieron las escrituras minoicas (tipo lineal A y lineal B) y el uso de la escritura en bustrofedon (‘arado de buey’), se considera que la escritura etrusca e indudablemente la escritura latina (de la cual proviene el alfabeto más usado actualmente) son modificaciones de la escritura alfabética griega (lo mismo que ocurre con el cirílico y el glagolítico), en cuanto a las escrituras ibéricas antiguas, éstas parecen haber recibido un fuerte influjo fenicio hasta ser suplantadas por las letras latinas.
En los territorios controlados por los celtas en la Antigüedad existió un sistema de escritura muy singular llamado ogam, usado principalmente por los druidas.
En lo atinente a las runas de los antiguos germanos, en ellas se nota una copia modificada de las letras latinas a las cuales sin embargo se les asignaron diversos valores fonéticos e inclusos "valores mágicos".a Algo similar ocurrió a fines del siglo XVIII entre los cheroquis de Norteamérica, entre ellos el jefe Sequoyah promovió el uso de un "alfabeto" (en realidad un silabario) inspirado por sus formas en el alfabeto latino usado por los colonos anglosajones aunque con diferentes valores fonéticos.
En cuanto a las escrituras con un componente ideográfico, prácticamente se restringen en la actualidad a la escritura china basada en sinogramas; estos mismos signos, llamados kanji (漢字 "caracteres han [= chinos]" en japonés), se usan en la escritura japonesa junto a dos silabarios, el hiragana y la katakana; los sinogramas también forman parte tradicionalmente de la escritura del coreano con el nombre de hanja (china escritura), aunque actualmente apenas se usan ya estando suplantados en Corea por el alfabeto hangul.
Como bien ha señalado Roland Barthes 1 la escritura ha significado una revolución en el lenguaje y en el psiquismo y, con ello, en la misma evolución humana, ya que es una "segunda memoria" para el ser humano —además de la biológica ubicada en el cerebro—. Esto es tan evidente que se distingue la prehistoria de la historia porque en la primera se carecía de escritura y solo existía la tradición oral.
La lengua oral constituida por una "sustancia fónica" tiene en tal sustancia un soporte efímero y requiere que el emisor y el receptor coincidan en el tiempo (y antes de la invención de las telecomunicaciones, también era necesaria la coincidencia en el lugar), en cambio con la lengua escrita siempre es posible establecer una comunicación con mensajes diferidos, la praxis escritural hace que el mensaje pueda ser realizado in absentia del receptor y conservado a través del tiempo.2
Índice [ocultar]
1 Historia de la escritura
2 Principios básicos de la escritura
2.1 Evolución de la escritura
2.2 Lengua hablada y lengua escrita
2.3 Sistemas de escritura
2.4 Funciones de la escritura
3 Escrituras del mundo
4 Véase también
5 Notas y referencias
5.1 Referencias
5.2 Bibliografía
6 Enlaces externos
Historia de la escritura[editar]
Artículo principal: Historia de la escritura

Texto rumano escrito en alfabeto transitorio entre cirílico y latino.
Actualmente, los semiólogos y los lingüistas consideran totalmente probado que la escritura es posterior al habla, aunque algunos semiólogos a fines de siglo XX llegaron a suponer que las escrituras son previas al lenguaje verbal articulado ya que existe un placer (por usar un término barthesiano) por parte del sujeto humano en dejar rastro de sí en diversos soportes (huellas de manos, muescas, rayas, representaciones más o menos figurativas tal cual se observa en el Magdaleniense), pero tales protoescrituras no parecen ser indicios de que los textos escritos se anticiparon al habla; en todo caso, con la escritura como «segunda memoria» el habla fue reforzada por los escritos; más aún, la escritura permite una reflexión adicional, y esto hace que el lenguaje escrito pueda tener una clara estrategia de la cual carece el lenguaje oral ágrafo.3
b Como en latín dijo Cayo Tito: Verba volant scripta manent (las palabras se vuelan lo escrito se mantiene).
Fundamentalmente, la lengua gráfica o la lengua escrita ha de considerarse un fenómeno lingüístico inventado por la sociedad humana para reemplazar a la lengua oral o fónica, la escritura aparece necesariamente cuando la evolución socioeconómica de las poblaciones impulsa la creación de un código alternativo que sea eficaz en situaciones en las cuales la lengua fónica es insuficiente o directamente inútil.2 c
Sin embargo el pasaje del lenguaje ágrafo al escritural tuvo una fase de transición: antes de la escritura propiamente dicha están los pictogramas y los grafismos, solo hace poco más de cinco milenios aparecen las primeras escrituras en Sumeria y en el antiguo Egipto.4

Signario de la Escritura Lineal Paleolítica (ELPA), compilado tras veinte años de catalogación de los registros de Arte Rupestre y grafismos usados durante el Paleolítico Superior.
Existen diversos hallazgos de representaciones gráficas previas a la escritura propiamente dicha, como los de las cuevas de Chauvet (1995), Cosquer (1994) o Lascaux (1940) en Francia, con imágenes que datan de 31 000, 24 000 y 15 000 años aproximadamente de antigüedad, respectivamente, o la cueva de Altamira (descubierta en 1868). El desarrollo de la escritura pudo tener motivaciones y funciones completamente diferentes de las que llevaron a crear otro tipo de representaciones gráficas.[cita requerida]. Investigaciones que vienen realizándose desde principios de la década de los noventa del pasado siglo, han permitido la compilación de un signario nuclear básico de unos ochenta y ocho signos lineales que fueron usados para grafiar o escribir secuencias ordenadas que combinan y articulan signos como en cualquier escritura de signos lineales y geométricos, lo que ha permitido el desarrollo de una hipótesis sobre el uso de una Escritura Lineal Paleolítica (ELPA) logofonográfica o glotográfica durante el Paleolítico Superior, al parecer ya desde tiempos del Auriñaciense, o con mayor probabilidad desde el Solutrense.5
Se ha observado el uso de tales signos lineales de una posible escritura lineal paleolítica no solo en la zona astur-cántabro-aquitana o franco-cantábrica, sino también en cuevas del sur de la península, concretamente en las cuevas de la Pileta y Nerja en Málaga.6
La invención de la escritura se dio en varios lugares del mundo de manera independiente. Las primeras técnicas de escritura se remontan al cuarto milenio a. C. Surgió en Egipto, Mesopotamia y China. El sistema creado en Oriente Medio y Egipto se extendió rápidamente a las áreas culturales cercanas y es el origen de la mayoría de las escrituras del mundo. En América la escritura también apareció en Mesoamérica, teniendo como uno de sus primeros ejemplos conocidos los jeroglíficos de la escritura maya.
Se le atribuye a la escritura la historia siguiente: Las transacciones entre tierras alejadas y diferidas en el tiempo necesitaban plasmarse en contratos.[cita requerida] Estos contratos se fundamentaban en unas bolas huecas de arcilla que contenían los datos, pequeñas formas de arcilla que simbolizaban los nombres de tres maneras diferentes: esferas, cono (geometría) y cilindros a los que se añadían unas formas convencionales que designaban aquello que se contrataba.[cita requerida] En caso de reclamación se rompía la bola seca, sobre la cual se había firmado con su sello para su control, y en la que se comparaba la cantidad y la entrega.[cita requerida]
Estas transacciones fueron puestas en forma de escuadra. Este era el medio para dibujar una cuña, un redondel y un cono, que representaban los datos y servían también para dibujar las formas convencionales. Finalmente se encontró la solución más simple: aplastar esta bola de arcilla y dibujar (escribir) en ambas caras el contenido del contrato: qué, cuánto y cuándo utilizando, siempre, esta pequeña caña.[cita requerida]
En Egipto se han encontrado placas de marfil y hueso probablemente indicativas del contenido o del origen de mercancías con una antigüedad de unos 5400 años.4
Principios básicos de la escritura[editar]
La escritura evolucionó desde sistemas de representanción meramente nmemotécnicos o contables (como está testimoniado en Mesopotamia), que inicialmente representaban objetos en forma de pictogramas, hasta sistemas más abstractos que acabaron representando sonidos o logogramas abstractos. Obviamente en ese sentido toda la escritura es dependiente de las lenguas naturales, tal como señaló el propio Aristóteles para quien la escritura está subordinada a la lengua hablada:
Los sonidos expresados por la voz son los símbolos de los estados del alma y las palabras escritas son los símbolos de las palabras emitidas con la voz7
Esto es, para la tradición aristotélica, la escritura es un conjunto de símbolos de otros símbolos. Para esta tradición lo escrito no representa directamente a los conceptos sino a las palabras fónicas con las cuales se denominan a los conceptos. Tal tradición aristotélica ha implicado un fonocentrismo que inhibió muchas veces el estudio lingüístico de la escritura y puso el acento en la fonología, esto fue criticado particularmente por Jacques Derrida a fines del siglo XX, este pensador ha considerado de especial importancia a las escrituras.8
Evolución de la escritura[editar]
La escritura ha evolucionado a través del tiempo. Fundamentalmente ha usado dos principios:
Principio ideográfico
Por el cual ciertos objetos, lugares, personas o animales eran representados regularmente por signos pictográficos, con cierto grado de realismo o más bien idealizados. La representación ideográfica y pictórica fue común en los inicios de todos los sistemas de escritura conocidos.
Principio fonético
Según el cual ciertos signos correspondían a sonidos o secuencias de sonidos, tal como eran percibidos por los hablantes. Inicialmente el sonido de un signo no fue totalmente convencional, sino que seguía el principio pro rebus, por el cual un sonido pictográfico pasaba a representar un sonido contenido en el nombre del objeto designado. Así, por ejemplo, en sumerio se usó un signo pictográfico para «flecha», pero posteriormente dicho signo se empleó en la transcripción de la palabra 'vida', ya que ambos tenían una pronunciación similar. Así ciertos signos pasaron gradualmente a usarse para representar objetos que tenían un sonido común o similar, con lo que surgieron sistemas basados en el principio fonético.
Tanto los sistemas jeroglíficos sumerios y egipcios, como en la escritura china se encuentran conjuntamente signos que siguen el principio ideográfico junto a signos que siguen el principio fonético.
No existe ningún sistema de escritura pleno (es decir, capaz de representar con precisión el lenguaje hablado) que sea puramente ideográfico. El idioma chino es citado como ejemplo de escritura puramente ideográfica, pero eso no es exacto, puesto que un buen número de los signos son "complementos fonéticos" que tienen que ver más con el sonido de la palabra que con una representación pictográfica del referente. Algo similar sucede en la escritura jeroglífica egipcia, donde muchas palabras se escriben mediante signos monolíteros, bilíteros o trilíteros junto a un complemento semántico. Los "signos n-líteros" siguen el principio fonético, mientras que los complementos semánticos siguen el principio ideográfico, al menos parcialmente.
Lengua hablada y lengua escrita[editar]
En la escritura se observa la complementariedad de dos códigos, el de la lengua hablada y el de la lengua escrita; ambos códigos conforman una estructura semiótica en la cual se vinculan dos universos de discurso: la estructura precisa de la lengua hablada consta de significados y de sus expresiones fónicas, los significantes; la lengua escrita, al ser complementaria de la oral, cuenta también con significados, siendo sus significantes de tipo gráfico. Se constata que ambos códigos (el oral o fónico por una parte y el escrito por la otra) poseen un mismo universo de contenido: el universo de contenido de la lengua gráfica es el mismo que el de la lengua hablada correspondiente.2
Por otra parte, los sistemas formales como la notación matemática más abstracta son sistemas derivados de la escritura (inicialmente la notación matemática consistió en abreviaciones de expresiones habladas), sin embargo, en su uso moderno la notación matemática avanzada permite expresar nociones que en lenguaje hablado frecuentemente son más complicadas de expresar, por lo que en cierto modo los sistemas gráficos formales han dejado de estar subordinados a la lengua hablada, por más que las nociones expresadas en ellos se pueden traducir de forma aproximada a palabras en forma informal.
Otro asunto relacionado con la relación entre lengua hablada y escrita, es que ningún sistema ortográfico es igual de expresivo que la lengua hablada. Las lenguas naturales, pueden expresar silencios, pausas, y entonaciones que solo se pueden representar muy imperfectamente en la escritura. Por otra parte, las variantes habladas pueden reflejar diferencias sociales y dialectales muy sutiles, y reconocibles por los hablantes, que no son sencillas de representar en un sistema de escritura práctico.
Sistemas de escritura[editar]
Artículo principal: Sistema de escritura
Un sistema de escritura permite la escritura de una lengua. Si se refiere a una lengua hablada, como es lo normal y corriente, se habla entonces de "escritura glotográfica" (pero puede tratarse también de una lengua no hablada, en este caso se hablaría de "escritura semasiográfica")d Las escrituras glotográficas ordinarias pueden estar divididas en dos grandes grupos:
Escrituras fonéticas
Las escrituras basadas completamente en el principio fonético, en que cada uno los signos representa algún tipo de sonido de la lengua hablada. Dentro de este tipo de escrituras puede distinguirse entre:
Alfabetos
En los que cada signo (o la mayor parte de ellos) representa un fonema de la lengua. Esto no es del todo exacto, porque algunos sonidos se pueden representar mediante dígrafos y/o trígrafos. Este es el tipo de escritura usado para todas las lenguas europeas y un buen número de lenguas africanas, americanas, oceánicas, etc.
Abyades o consonantarios
En los que solo algunos fonemas tienen representación gráfica, usualmente las consonantes, por lo que no constituyen una representación completa. Estos sistemas resultan más económicos desde el número de signos a costa de ser parcialmente ambiguos, aunque el contexto elimina la mayor parte de esa ambigüedad, por lo que leerlos correctamente requiere conocer la lengua en que están escritos.
Abugidas o pseudosilabarios
Constituyen una refinamiento de los abyades, al introducirse una manera no ambigua de marcar la vocal del núcleo silábico, sin que en general se emplee un signo diferente y aparte de la consonante. Las escrituras etiópicas, las usadas en la India o el silabario cri son en realidad «abúgidas» y no silabarios genuinos como frecuentemente se dice.
Silabarios
En los que cada signo generalmente representa una única sílaba, sin que exista necesariamante relación entre los signos de las sílabas que empiezan por el mismo sonido. La escritura ibérica es un ejemplo.
Escrituras ideográficas
Las escrituras basadas parcialmente en el principio ideográfico, en que algunos de los signos representan directamente un tipo de referente, un campo semántico, etc. En la práctica todas las escrituras plenamente desarrolladas que usan el principio ideográfico, lo combinan con signos que siguen el principio fonográfico. Ejemplos de este tipo de escrituras mixtas son:
La escritura china, y sus derivadas (sistemas de escritura del japonés por una parte y del coreano por otra).
Varios de los signos jeroglíficos egipcios y cuneiformes pertenecen a este grupo.
Un mismo sistema puede servir para muchas lenguas y una misma lengua puede estar representada por diferentes sistemas. Los grafemas fundamentales de una escritura pueden completarse con la utilización de diacríticos, de ligaduras y de grafemas modificados.
Funciones de la escritura[editar]
Desde la psicología, Gordon Wells (1987) explora el concepto de lo escrito e identifica cuatro niveles de uso, que no se deben considerar exactamente funciones en el sentido lingüístico: ejecutivo, funcional, instrumental y epistémico.e
El más básico es el ejecutivo, que se refiere al control del código escrito, a la capacidad de codificar y descodificar signos gráficos.
El funcional incluye la comunicación interpersonal y exige el conocimiento de los diferentes contextos, géneros y registros en que se usa la escritura.
El instrumental corresponde al uso de la lectoescritura como vehículo para acceder al conocimiento científico y disciplinario.
Y el epistémico se refiere al uso más desarrollado cognitivamente, en el que el autor, al escribir, transforma el conocimiento desde su experiencia personal y crea ideas.
La taxonomía (clasificación científica) de funciones lingüísticas de M. A. K. Halliday (1973) distingue dos categorías en el nivel epistémico: el uso heurístico y el imaginativo.
Florian Coulmas (1989, págs. 13-14) se refiere a esta última función como estética, además de incluir otra con la denominación de control social.
Después de estas consideraciones, podemos distinguir y clasificar los siguientes tipos de funciones:
La primera distinción será entre usos individuales (intrapersonales) o sociales (interpersonales):
Intrapersonales: el autor del escrito y su destinatario son la misma persona. Las principales funciones son:
Registrativa: la escritura permite guardar información sin límite de cantidad o duración. Se trata de la función mnemotécnica más básica que utilizamos corrientemente cuando anotamos direcciones y teléfonos, compromisos en agendas o ideas que se nos ocurren en un momento imprevisto. Requiere dominio del código escrito y su correspondencia con los sonidos.
Manipulativa: al ser bidireccional y planificada, la escritura facilita la reformulación de los enunciados, según las necesidades y las circunstancias. No siempre reproducimos literalmente lo escuchado, leído, visto o pensado. Escribir permite elaborar la información. Así preparamos el guion de una charla, etc.
Epistémica: subiendo otro peldaño del desarrollo cognitivo, la manipulación de datos permite al autor generar opiniones e ideas que no existían antes de iniciar la actividad escritora. Escribir se convierte en una potente herramienta de creación y aprendizaje de conocimientos nuevos. Todos hemos experimentado el poder epistémico de la escritura en situaciones cotidianas. Al tener que explicar por carta a un amigo una situación complicada o comprometida.
Interpersonales: el autor escribe para otros: un lector conocido o no, un grupo, una asociación, una comunidad lingüística, etc. La escritura se convierte en un instrumento de actuación social para informar, influir, ordenar, etc. Aquí también distinguimos varias funciones:
Comunicativa: la escritura permite interactuar con el prójimo en circunstancias nuevas: en diferentes lugares y tiempos, cuando lo escrito resulta más preciso o cortés. Esta función exige dominar los rasgos discursivos y gramaticales propios de cada género y tipo de texto.
Organizativa: desarrolla funciones ordenadoras, certificadoras o administradoras. Lo escrito garantiza derechos y deberes de la ciudadanía, informa al público lector, garantiza derechos al trabajador, etc.
Finalmente, la última función que participa de los usos intrapersonales tanto como de los interpersonales es la estética o lúdica. En cualquier situación, la escritura posee una dimensión placentera o de diversión.
Escrituras del mundo[editar]
Sistemas de escritura en el mundo.
Escrituras alfabéticas.
Caracteres árabes (abyad y variantes contextuales).
Caracteres bereberes (tifinagh).
Caracteres coreanos (hangul: sistema alfabético que agrupa las letras en bloques de dos a cuatro signos.
Caracteres cirílicos
Alfabeto georgiano
Caracteres hebraicos
Caracteres helénicos
Caracteres latinos
Véase también: Romanización (transliteración)
Caracteres vah
Alfabetos de la India (semisilábicos) casi siempre con variantes contextuales.
Devánagari
Bengalí
Guyaratí
Támil
Télugu
Gurmuki
Otros idiomas derivados del brahmánico
Camboyano
Laosiano
Tailandés
Tibetano
Caracteres escandinavos (runa).
Futhark
Nuevo futhark
Runas puntiagudas
Escrituras silábicas
Lineal B
Silabario inuktitut
Silabario cheroqui
Silabario vai
Silabario ki-ka-ku
Silabario shümom
Silabario mandombe
Caracteres japoneses kanas
Hiragana
Katakana
Escrituras logográficas (o emparentadas).
Escritura Maya
Caracteres chinos o sinogramas: Utilizados también por los japoneses que ellos llaman kanji. Los coreanos las emplean para escribir los nombres propios. Esta escritura no es realmente ideográfica, ya que un signo no corresponde siempre a una idea. Es monosilábica en chino.
Símbolos adinkra
Símbolos nsibidi
Caracteres tangut
Caracteres egipcios
Los jeroglíficos
Los jeroglíficos lineales
La escritura hierática (estos caracteres perdieron pronto su aspecto representativo).
La escritura demótica
Los jeroglíficos hititas
Escrituras cuneiformes
Caracteres sumerios
Escrituras no descifradas
Manuscrito Voynich
Codex Rohonczi
Rongo rongo
Escritura vincha

Ha recibido 2038 puntos

Vótalo:

AGRICULTURA (10.000 a.C)

6. AGRICULTURA (10.000 a.C)

https://www.youtube.com/watch?v=e0yIoWZF95A

La agricultura (del latín agri ‘campo’, y cultūra ‘cultivo’, ‘crianza’)1 2 es el conjunto de técnicas y conocimientos para cultivar la tierra y la parte del sector primario que se dedica a ello. En ella se engloban los diferentes trabajos de tratamiento del suelo y los cultivos de vegetales... Ver mas
La agricultura (del latín agri ‘campo’, y cultūra ‘cultivo’, ‘crianza’)1 2 es el conjunto de técnicas y conocimientos para cultivar la tierra y la parte del sector primario que se dedica a ello. En ella se engloban los diferentes trabajos de tratamiento del suelo y los cultivos de vegetales. Comprende todo un conjunto de acciones humanas que transforma el medio ambiente natural.
Las actividades relacionadas son las que integran el llamado sector agrícola. Todas las actividades económicas que abarca dicho sector tienen su fundamento en la explotación de los recursos que la tierra origina, favorecida por la acción del hombre: alimentos vegetales como cereales, frutas, hortalizas, pastos cultivados y forrajes; fibras utilizadas por la industria textil; cultivos energéticos etc.
Es una actividad de gran importancia estratégica como base fundamental para el desarrollo autosuficiente y riqueza de las naciones.
La ciencia que estudia la práctica de la agricultura es la agronomía.
Índice [ocultar]
1 Historia
1.1 Comienzo de la agricultura
1.2 Cómo nació la agricultura en el mundo
1.3 Agricultura en la antigua Roma
1.4 Edad Media
1.5 Edad Moderna
1.6 Edad Contemporánea
2 Actualidad
3 Simbología
4 Tipos de agricultura
5 Agricultura y medio ambiente
5.1 Algunos problemas actuales
6 Maquinaria, equipos y herramientas agrícolas
6.1 Maquinaria agrícola
6.2 Equipos agrícolas
6.3 Herramientas agrícolas
6.4 Diferencias entre maquinarias, equipos y herramientas según su uso
6.5 Importancia de las maquinarias, equipos y herramientas en la labor agrícola
7 Políticas agrarias
8 Estudios económicos
9 Filosofía de la agricultura
10 Véase también
11 Notas
12 Bibliografía
13 Enlaces externos
Historia[editar]
Comienzo de la agricultura[editar]

Trilla de cereales en el antiguo Egipto.
En el Creciente Fértil de Oeste de Asia, Egipto e India fueron los sitios de la primera siembra y cosecha hidráulica, de plantas que habían sido recogidas previamente en la naturaleza. El desarrollo y la independencia de la agricultura se produjo en el norte y sur de China, en el Sahel de África, en Nueva Guinea y en varias regiones de las Américas. Los ocho cultivos llamados fundadores del Neolítico de la agricultura, fueron en primer lugar los cereales: trigo "espelta", el trigo "mocho", luego la cebada; las leguminosas: guisantes, lentejas, yeros, garbanzo; y el lino.
En el año 7000 a. C., la naciente agricultura llegó a Egipto. Por lo menos desde 7000 a. C., en el subcontinente indio se cultivó trigo y cebada, como lo demuestran excavaciones arqueológicas en Mehrgarh en Baluchistán, en lo que hoy es Pakistán.
En el año 6000 a. C., la agricultura campesina se atrincheró en las orillas del Nilo. Esto debido al poco desarrollo aún de las técnicas de riego. Durante este tiempo, la agricultura se desarrolló de forma independiente en el Lejano Oriente, con el arroz, en lugar de trigo, como cultivo principal. Los agricultores de China e Indonesia lograron domesticar el taro o papa china (Colocasia esculenta) y el frijol mung (Vigna radiata), la soja y el azuki (Vigna angularis). Como complemento a estas nuevas fuentes de hidratos de carbono, una red de pesca altamente organizada en los ríos, lagos y las costas del océano en estas áreas trajo consigo grandes volúmenes de proteínas esenciales. En conjunto, estos nuevos métodos agrícolas y de pesca originaron un auge de la población humana que empequeñeció todas las expansiones anteriores y que continúa en la actualidad.
En 5000 a. C., los sumerios habían desarrollado las principales técnicas agrícolas, incluyendo el cultivo intensivo de la tierra a gran escala, el monocultivo, técnicas de riego, y el uso de mano de obra especializada, particularmente a lo largo de la vía acuática ahora conocida como el canal de Shatt al-Arab, del delta de Golfo Pérsico a la confluencia de los ríos Tigris y Éufrates.
La domesticación de especies silvestres: uros y muflones en ganado vacuno y ovino, respectivamente, dio paso a la utilización a gran escala de animales para comida/fibra y como bestias de carga. El pastor se unió al agricultor como un proveedor esencial para las sociedades sedentarias y seminómadas. El maíz, la mandioca y el arrurruz fueron domesticadas por primera vez en el continente americano y se remontan al 5200 antes de Cristo.
Cómo nació la agricultura en el mundo[editar]

Campesino arando. Pintura en la tumba de Sennedyem, ca. 1200 a. C. Egipto.

Inicios de la agricultura en diferentes regiones del planeta; solo se consideran las áreas de desarrollo primario, no las que domesticaron plantas por influjo de regiones que previamente habían desarrollado la agricultura.
El inicio de la agricultura se encuentra en el período Neolítico, cuando la economía de las sociedades humanas evolucionó desde la recolección, la caza y la pesca a la agricultura y la ganadería. Las primeras plantas cultivadas fueron el trigo y la cebada. Sus orígenes se pierden en la prehistoria y su desarrollo se gestó en varias culturas que la practicaron de forma independiente, como las que surgieron en el denominado Creciente Fértil (zona de Oriente Próximo desde Mesopotamia al Antiguo Egipto), las culturas precolombinas de América Central, la cultura desarrollada por los chinos al este de Asia, etc.
Se produce una transición, generalmente gradual, desde la economía de caza y recolección de productos agrícolas. Las razones del desarrollo de la agricultura pudieron ser debidas a cambios climáticos hacia temperaturas más templadas; también pudieron deberse a la escasez de caza o alimentos de recolección, o la desertización de amplias regiones. A pesar de sus ventajas, según algunos antropólogos, la agricultura significó una reducción de la variedad en la dieta, creando un cambio en la evolución de la especie humana hacia individuos más vulnerables y dependientes de un enclave que sus predecesores.
La agricultura y la dedicación de las mujeres a una maternidad intensiva3 permitieron una mayor densidad de población que la economía de caza y recolección por la disponibilidad de alimento para un mayor número de individuos. Con la agricultura las sociedades van sedentarizándose y la propiedad deja de ser un derecho solo sobre objetos móviles para trasladarse también a los bienes inmuebles, se amplía la división del trabajo y surge una sociedad más compleja con actividades artesanales y comerciales especializadas, los asentamientos agrícolas y los conflictos por la interpretación de linderos de propiedad dan origen a los primeros sistemas jurídicos y gubernamentales. La nueva situación de la mujer, recluida ahora a un espacio doméstico, la excluye de la economía y de la vida social dando origen al patriarcado.
Agricultura en la antigua Roma[editar]
Artículo principal: Agricultura y ganadería en la antigua Roma
En los primeros tiempos de Roma se cultivaban principalmente cereales, leguminosas y hortalizas, pero en la época de la expansión republicana e imperial la agricultura incluía, además del trigo (el pan fue siempre la base de la alimentación) los otros dos elementos de la llamada tríada o trilogía mediterránea.
El campesino trabajaba con su familia, en un modelo literariamente idealizado de vida sencilla (base de los valores morales, familiares y públicos, y de la participación en la res publica); pero con la expansión territorial, la continuidad del esfuerzo bélico, que exigía un prolongado servicio militar de los ciudadanos, arruinó las pequeñas explotaciones en beneficio del modo de producción esclavista. En ese sistema se incluía la mayor parte de la producción agrícola, tanto la de los modestos lotes de tierras repartidos a soldados veteranos como los grandes latifundios en manos de la aristocracia senatorial. En la lenta transición del esclavismo al feudalismo, a partir de la crisis del siglo III, se sustituyeron los esclavos por siervos, y el Imperio se ruralizó, pasando las villae rurales a ser centros autosuficientes, en perjuicio de las decadentes ciudades.
Las técnicas agrícolas se basaban en el uso del arado romano, tirado habitualmente por bueyes, y en el sistema de barbecho. Otros aportes fueron la prensas de aceite, algunas técnicas de regadío y de abono.
Edad Media[editar]

Labores agrícolas, 818 d. C., Salzburgo.
A lo largo de la Edad Media europea, surgen importantes innovaciones tecnológicas que aportarán algunos elementos positivos al trabajo de los campesinos. Las principales innovaciones en la agricultura medieval se debieron al mayor dinamismo del modo de producción feudal, que suponía para los siervos un mayor incentivo en la mejora de la producción que para los esclavos. Las Partidas de Alfonso X de Castilla definen a los campesinos dentro de la sociedad estamental como los que labran la tierra e fazen en ella aquellas cosas por las que los hombres han de vivir y de mantenerse. Este campesinado activo fue la fuerza fundamental del trabajo en la sociedad medieval.
La introducción del uso de arados pesados (con ruedas y vertedera) permitió un cultivo más profundo de los suelos del norte de Europa (se incorporó a lo largo del siglo XI en las regiones al norte de los Alpes, mientras que los suelos frágiles de la zona mediterránea seguían vinculados al arado romano). Los molinos hidráulicos (posteriormente los de viento introducidos desde Persia) incrementaron de forma importante la productividad del trabajo, al igual que la mejora paulatina de los aperos agrícolas, como nuevos tipos de trillos, hoces y guadañas.

Trilla tradicional con un trillo (imagen del Oriente Próximo).
El cambio del buey por el caballo como animal de tiro fue el resultado de dos avances tecnológicos —el uso de la herradura y el desarrollo de la collera— que permitían al caballo tirar de mayores cargas más fácilmente. Esto aumentó la eficiencia del transporte por tierra, tanto para el comercio como para las campañas militares, y sumado a la mejora general de la red de carreteras aumentó las oportunidades comerciales para las comunidades rurales mejor comunicadas. En algunas zonas con tierras especialmente fértiles, se introdujo la rotación de cultivos de tres hojas (rotación trienal, asociando un cereal de primavera o una leguminosa a un cereal de invierno), lo que reducía al 33 en vez de al 50 % la necesidad de barbecho frente al sistema de año y vez, aumentando la producción y haciéndola más diversificada. La posibilidad de abonado, estaba restringida a la disponibilidad de ganadería asociada, que, en las zonas y periodos en que se incrementó, tuvo un importante impacto en la vida campesina, aunque no siempre positivo para los agricultores, cuyos intereses estaban en contradicción con los de los ganaderos, habitualmente de condición privilegiada (el Concejo de la Mesta y asociaciones ganaderas similares en los reinos cristianos peninsulares). El ejemplo de los monasterios, especialmente de la Orden benedictina expandidos por toda Europa occidental (Cluny y Císter), extendió prácticas agrícolas, de gestión de las propiedades y de industria alimentaria. En zonas de Europa meridional (la Sicilia y la España musulmanas), los árabes introdujeron mejoras agrícolas, especialmente en sistemas de regadío (norias de Murcia, acequias de Valencia), el aprovechamiento de las laderas (bancales de las Alpujarras), zonas inundables (arroz) y el cultivo intensivo de huertas, con la generalización de los frutales mediterráneos (naranjos, almendros) y todo tipo de verduras, que caracterizarán el estereotipo de la alimentación de los campesinos sometidos de estas zonas, de origen musulmán, frente a los conquistadores cristianos (villano harto de ajos llamaba Don Quijote a Sancho).
Estos cambios causaron un crecimiento, tanto en la variedad como en la cantidad de las cosechas, que tuvo efectos importantes en la dieta de la población. El campo fue el gran protagonista en la Plena Edad Media europea. Los recursos que aportaba la agricultura y la ganadería eran la base de la economía y la tierra era el centro de las relaciones sociales, siendo la distribución de sus excedentes la que permitió la revolución urbana que se vivió entre los siglos XI y XIII, cumbre del periodo denominado óptimo medieval, beneficiado por un clima especialmente benigno. La tasa de crecimiento promedio interanual de la población europea durante el período 1000-1300 fue de 0,2 %. Entre las causas de la reducción de la tasa de mortalidad que permitió ese crecimiento, leve pero sostenido, se ha sugerido la mejora en la alimentación producto de la incorporación del octavo aminoácido, gracias al consumo de la lenteja.4
La expansión agrícola de las tierras cultivables se hizo a costa de la reducción de la superficie del bosque y de la incorporación de tierras marginales y aunque contribuyó al crecimiento de la producción de alimentos, inevitablemente conducía a las consecuencias negativas de la ley de los rendimientos decrecientes, lo que estuvo entre las causas lejanas o precondiciones de la crisis del siglo XIV. A pesar de los progresos, la agricultura medieval manifestó siempre signos de precariedad debido a la imposibilidad de realizar la inversión productiva de los excedentes (extraídos en forma de renta feudal por la nobleza y el clero) y su estrecha dependencia de las condiciones naturales.
Véase también: Revolución agrícola del islam medieval
Edad Moderna[editar]
Durante el Antiguo Régimen los países del sur y este de Europa prolongaron el sistema económico feudal, especialmente en la agricultura, pudiéndose hablar de una refeudalización evidente desde la crisis del siglo XVII, en que se reafirmó la posición predominante de los señores frente a los campesinos, que seguían siendo la inmensa mayoría de la población, pero que no tenían posibilidad de iniciar la acumulación del capital necesaria para la transformación agraria. En cambio, en la Europa noroccidental, especialmente en Holanda e Inglaterra, los cambios sociales y políticos (revolución burguesa) se vieron acompañados en el campo por una revolución agrícola previa a la Revolución Industrial del siglo XVIII, que intensificó los cultivos, aumentando los rendimientos gracias a mejoras técnicas y productivas (rotación de cultivos de cuatro hojas de Waasland; aperos de Jethro Tull) y a la introducción de nuevos cultivos.5
La integración de la economía mundial tras la era de los descubrimientos permitió un intercambio de cultivos a nivel planetario: productos del Viejo Mundo, tanto de zonas templadas como el trigo y la vid, como de zonas cálidas como la caña de azúcar, el algodón y el café, fueron introducidos con éxito en América; mientras que productos del Nuevo Mundo como el maíz, la patata, el tomate, el pimiento y el tabaco diversificaron la agricultura europea y del resto de los continentes. Ya en época industrial, la explotación del caucho, restringida inicialmente a la silvicultura amazónica, también se acabó extendiendo a otras zonas ecuatoriales a pesar de todo el cuidado que se puso en impedirlo.
Edad Contemporánea[editar]
La ideología del liberalismo económico propugnó la liberación del mercado de tierras y la imposición de la propiedad privada sobre ellas, con distintas manifestaciones según los países (enclosures en Inglaterra desde el siglo XVIII; en España supresión de mayorazgos y señoríos desde los Cortes de Cádiz, desamortización de Mendizábal en 1836). La formación de mercados nacionales unificados implicaba la unificación de los pesos y medidas, y la liberalización de los precios frente al anterior proteccionismo mercantilista, tarea que el despotismo ilustrado había iniciado desde supuestos fisiócratas a mediados del siglo XVIII. La supresión de la tasa del trigo en España en 1765 estuvo entre las causas del motín de Esquilache, a partir de lo cual la lenta tramitación de una Ley Agraria no llegó a resultados efectivos (Informe de Jovellanos, 1795). En el Imperio austríaco se produjo la abolición de la servidumbre (José II, 1785), que en el Imperio ruso no llegó hasta 1861 (reforma de Alejandro II). En Francia, la Revolución de 1789 suprimió los derechos feudales, proporcionando una base de pequeños propietarios pero con suficiente capacidad de capitalización, muy implicados con su tierra, que caracterizó desde entonces la vitalidad y especial fuerza social y política del campo francés. En Inglaterra, el predominio de los terratenientes y la gentry en el Parlamento logró mantener hasta bien entrado el siglo XIX el proteccionismo de las Corn Laws para evitar un descenso en el precio del trigo, en perjuicio de los industriales que patrocinaron la Escuela de Mánchester. Lo que sí se había producido es la drástica reducción de la población activa agraria ante cada vez mayor productividad del trabajo. La falta de expectativas de trabajo en el campo para una población creciente (explosión demográfica), y la ruptura de las redes de solidaridad tradicionales en las parroquias rurales (Poor Laws, desaparición de los comunales —en España con la desamortización de Madoz, 1855—) condujo a un imparable éxodo rural que alimentó los suburbios de las ciudades industriales.

Barra de corte originalmente tirada por un caballo.
El uso de abonos químicos (fosfatos, nitratos, etc.) la mecanización y los estudios científicos de la edafología y la ingeniería agrícola transformaron la agricultura, a finales del siglo XIX, en una actividad similar a la industrial en cuanto a su conexión con la ciencia y tecnología. No obstante, la dependencia de la climatología y la periódica irrupción de plagas (hambre irlandesa de 1845-1849, con afectación de la patata, filoxera desde 1863, con afectación de la vid) produjo periódicas crisis agrícolas.
La división del mundo en países desarrollados y subdesarrollados tuvo en la agricultura uno de sus aspectos: los primeros caracterizados por una agricultura especializada y de mercado con altos rendimientos (incluso en los denominados países nuevos donde la presión de la población sobre la superficie es menor); mientras que en los segundos se produjo una división por zonas entre una agricultura de subsistencia de explotaciones familiares con tecnología tradicional y sometida a la presión del crecimiento demográfico, y una agricultura de plantación de monocultivos destinados al mercado internacional, que también presiona sobre los cada vez más reducidos espacios naturales (deforestación).
La revolución verde de la segunda mitad del siglo XX significó un salto cualitativo en la tecnificación de la agricultura en todo el mundo, basándose en mejoras tecnológicas avanzadas como las semillas de alto rendimiento, que a finales de siglo XX experimentó un nuevo impulso con la biotecnología (OGM). Simultáneamente, la evolución generalizada hacia una agricultura de mercado produjo la cada vez mayor dependencia de los plaguicidas y el abonado intensivo, con graves problemas medioambientales como la contaminación de suelos y acuíferos y una drástica reducción de la biodiversidad; a lo que se ha pretendido responder con el planteamiento de una denominada agricultura sostenible.
Gran parte de la agricultura de muchas regiones del planeta precisa de una cantidad enorme de trabajo humano, ayudado por muy pocos medios técnicos, debido a la falte de capital para invertir en maquinaria, abono químico, etc.
Actualidad[editar]

Maquinaria agrícola moderna.
Siglo XX, especialmente con la aparición del tractor, las exigentes tareas de sembrar, cosechar y trillar pueden realizarse de forma rápida y a una escala antes inimaginable. Según la Academia Internacional de Ingeniería de Estados Unidos. La mecanización agraria es uno de los 20 mayores logros de la ingeniería del siglo XX. A principios del siglo XX, en Estados Unidos se necesitaba un granjero para alimentar de 2 a 5 personas, mientras que hoy, gracias a la tecnología, los agroquímicos y las variedades actuales, un granjero puede alimentar a 130 personas. El costo de esta productividad es un gran consumo energético, generalmente de combustibles fósiles.
La difusión de la radio y la televisión (medios de comunicación), así como de la informática, son de gran ayuda, al facilitar informes meteorológicos, estudios de mercado, etc.
Además de comida para humanos y sus animales, se produce cada vez con más amplia utilidad tales como flores, plantas ornamentales, madera, fertilizantes, pieles, cuero, productos químicos (etanol, plásticos, azúcar, almidón), fibras (algodón, cáñamo, lino), combustible (biodiésel, el propio etanol, que ahora ya se está obteniendo del maíz), productos biofarmacéuticos, y drogas tanto legales como ilegales (tabaco, marihuana, opio, cocaína). También existen plantas creadas por ingeniería genética que producen sustancias especializadas (como, por ejemplo, el maíz transgénico, que, al igual que la obtención de etanol, está modificando la economía de los cultivos de esta planta y la vida de las comunidades que de ella siguen dependiendo).
La manipulación genética, la mejor gestión de los nutrientes del suelo y la mejora en el control de las semillas han aumentado enormemente las cosechas por unidad de superficie, a cambio estas semillas se han vuelto más sensibles a plagas y enfermedades, lo que conlleva una necesidad de estos últimos mayor por parte del agricultor; Prueba de ello es el resurgimiento de antiguas variedades, muy resistentes a las enfermedades y plagas, por su rusticidad. Al mismo tiempo, la mecanización ha reducido la exigencia de mano de obra. Las cosechas son generalmente menores en los países más pobres, al carecer del capital, la tecnología y los conocimientos científicos necesarios.
La agricultura moderna depende enormemente de la tecnología y las ciencias físicas y biológicas. La irrigación, el drenaje, la conservación y la sanidad, que son vitales para una agricultura exitosa, exigen el conocimiento especializado de ingenieros agrónomos. La química agrícola, en cambio, trata con la aplicación de fertilizantes, insecticidas y fungicidas, la reparación de suelos, el análisis de productos agrícolas, etc.
Las variedades de semillas han sido mejoradas hasta el punto de poder germinar más rápido y adaptarse a estaciones más breves en distintos climas. Las semillas actuales pueden resistir a pesticidas capaces de exterminar a todas las plantas verdes. Los cultivos hidropónicos, un método para cultivar sin tierra, utilizando soluciones de nutrientes químicos, pueden ayudar a cubrir la creciente necesidad de producción a medida que la población mundial aumenta.
Otras técnicas modernas que han contribuido al desarrollo de la agricultura son las de empaquetado, procesamiento y mercadeo. Así, el procesamiento de los alimentos, como el congelado rápido y la deshidratación han abierto nuevos horizontes a la comercialización de los productos y aumentado los posibles mercados.
Simbología[editar]
La agricultura se representa del mismo modo que a la diosa Ceres, coronada de espigas, con un arado al lado y un arbusto que empieza a florecer. Algunas veces tiene un cuerno de la abundancia lleno de toda clase de frutos y ambas manos sobre una pala o azada. Otros la pintan apoyada sobre el Zodiaco, para significar que las estaciones arreglan los trabajos de la agricultura y revestida de un ropaje verde, símbolo de la esperanza.
En algunas medallas es representada con una mujer que tiene echados a sus pies un león y un toro, el uno emblema de la tierra y el otro, de la labranza. En una piedra grabada de la biblioteca del Vaticano, se ve representada la Agricultura por Psiquis, apoyándose, en una pala como trabajo en que el alma encuentra lugar para la meditación. El genio de la Agricultura se simboliza por medio de un niño desnudo, de una fisonomía risueña y coronado de adormideras; en una mano tiene un manojo de espigas y en la otra un racimo de uvas.6
Tipos de agricultura[editar]

Riego en un cultivo de algodón.

Agricultura de secano en la provincia de Ávila, España
Los tipos de agricultura pueden dividirse según muchos criterios distintos de clasificación:
Según su dependencia del agua:
De secano: es la agricultura producida sin aporte de agua por parte del mismo agricultor. nutriéndose el suelo de la lluvia o aguas subterráneas.
De regadío: se produce con el aporte de agua por parte del agricultor, mediante el suministro que se capta de cauces superficiales naturales o artificiales, o mediante la extracción de aguas subterráneas de los pozos.
Según la magnitud de la producción y su relación con el mercado:
Agricultura de subsistencia: Consiste en la producción de la cantidad mínima de comida necesaria para cubrir las necesidades del agricultor y su familia, sin apenas excedentes que comercializar. El nivel técnico es primitivo.
Agricultura industrial: Se producen grandes cantidades, utilizando costosos medios de producción, para obtener excedentes y comercializarlos. Típica de países industrializados, de los países en vías de desarrollo y del sector internacionalizado de los países más pobres. El nivel técnico es de orden tecnológico. También puede definirse como Agricultura de mercado.
Según se pretenda obtener el máximo rendimiento o la mínima utilización de otros medios de producción, lo que determinará una mayor o menor huella ecológica:
Agricultura intensiva: busca una producción grande en poco espacio. Conlleva un mayor desgaste del sitio. Propia de los países industrializados.
Agricultura extensiva: depende de una mayor superficie, es decir, provoca menor presión sobre el lugar y sus relaciones ecológicas, aunque sus beneficios comerciales suelen ser menores.
Según el método y objetivos:
Agricultura tradicional: utiliza los sistemas típicos de un lugar, que han configurado la cultura del mismo, en periodos más o menos prolongados.
Agricultura industrial: basada sobre todo en sistemas intensivos, está enfocada a producir grandes cantidades de alimentos en menos tiempo y espacio —pero con mayor desgaste ecológico—, dirigida a mover grandes beneficios comerciales.
Agricultura orgánica: biológica o ecológica (son sinónimos): crean diversos sistemas de producción que respeten las características ecológicas de los lugares y geobiológicas de los suelos, procurando respetar las estaciones y las distribuciones naturales de las especies vegetales, fomentando la fertilidad del suelo.
Agricultura natural: se recogen los productos producidos sin la intervención humana y se consumen.
Agricultura y medio ambiente[editar]
La agricultura tiene un gran impacto en el medio ambiente. En los últimos años, algunos aspectos de la agricultura intensiva a nivel industrial han sido cada vez más polémicos. La creciente influencia de las grandes compañías productoras de semillas y productos químicos y las procesadoras de comida preocupan cada vez más tanto a los agricultores como al público en general. El efecto desastroso sobre el entorno de la agricultura intensiva han causado que varias áreas anteriormente fértiles hayan dejado de serlo por completo, como ocurrió en tiempos con Oriente Medio, antaño la tierra de cultivo más fértil del mundo y ahora un desierto.
Algunos problemas actuales[editar]
Contaminación por desechos orgánicos
Contaminación por nitrógeno y fósforomagnesio en ríos, lagos y aguas subterráneas.
Contaminación por residuos de pesticidas del suelo, agua y aire.
Causar desequilibrios en la biota por el uso indiscriminado de pesticidas.
Erosión del terreno.
Agotamiento de minerales del suelo.
Salinización del suelo en zonas secas.
Competencia entre los agrocombustibles y la alimentación.
Muchos de estos problemas van agotando y desertizando el suelo, obligando a abandonar unos terrenos para arar otros nuevos que, a su vez, se agotan, creando un círculo vicioso que va destruyendo el entorno. Un ejemplo claro es la progresiva deforestación de la selva del Amazonas.
Maquinaria, equipos y herramientas agrícolas[editar]
Maquinaria agrícola[editar]
Artículo principal: Maquinaria agrícola

Tractor Lamborghini.
Las maquinarias son elementos que se utilizan para dirigir la acción realizada por las fuerzas de trabajo a base de energía; por su parte en el campo agrícola, los mecanismos a motor que se emplean en estas labores aligeran la producción y mejoran las técnicas de cultivo. Entre las máquinas agrícolas más utilizadas en las labores del campo se mencionan:
Tractor: es una máquina agrícola muy útil, con ruedas o cadenas diseñadas para moverse con facilidad en el terreno y potencia de tracción que permite realizar grandes tareas agrícolas, aun en terrenos encharcados. Tiene dos pedales de freno y está acondicionando para halar rastras. Hay dos tipos de tractores: el de oruga, de gran estabilidad y fuerza, y el de ruedas, capaz de desplazarse hasta por carreteras; posee mayor velocidad que el de oruga.
Motocultor: es una máquina agrícola de un solo eje y se opera por manillar; suele tener mediana potencia pero, en cambio puede ser muy versátil con los numerosos aperos e implementos que se han venido desarrollando. Es la maquinaria ideal para parcelas pequeñas o minifundios, muy frecuentes en los países del Sur de Europa, y también del sudeste asiático, así como de otras partes del mundo; la fuerza del motor es bastante reducida (motores monocilíndricos de gasolina o diésel de unos 200 cc en promedio) pero queda compensada por la escasa velocidad, lo que le da una gran potencia. Aunque también puede emplearse en parcelas relativamente grandes con un asiento para el conductor, su empleo ha venido siendo sustituido parcialmente por los tractores más grandes, esenciales en las labores de integración parcelaria, como la que se ha llevado a cabo en Francia y en otros países, por lo que su uso ha venido limitándose cada vez más para las labores hortícolas, en jardinería y de ornamento en las parcelas minifundistas. Los implementos del motocultor pueden variar desde las cosechadores, sembradoras, fumigadoras, transporte y hasta toma de fuerza para bombas de riego y otros fines. Seguirá siendo esencial en las parcelas en los terrenos bastante desnivelados y fragmentados por el relieve.
Cosechadora: o segadora es una máquina agrícola de motor potente, peine cortador para segar las plantas maduras de cereales y un largo rastrillo que va delante de la máquina y gira sobre un eje horizontal.
Equipos agrícolas[editar]
Artículo principal: Equipos agrícolas

Arado de cultivador, Cuenca, España.
Los equipos agrícolas son un grupo de aparatos diseñados para abrir surcos en la tierra, desmenuzar, fumigar y fertilizar en el suelo.
Arado: es un equipo agrícola diseñado para abrir surcos en la tierra; está compuesto por una cuchilla, reja, vertedera, talón, cama, timón y mancera, las cuales sirven para cortar y nivelar la tierra, sostener las piezas del arado, fijar el tiro y servir de empuñadura. Existen diversos tipos de arados, pero los más conocidos son:
arado de vertedera, formado por la reja, cuchillas y la vertedera.
arado de discos: formado por discos cóncavos para abrir surcos profundos.
arado superficial, para remover la capa superior del suelo.
arado de subsuelo, para remover la tierra a profundidad.
Rastra: es un equipo agrícola diseñado para desmenuzar las partes o porciones de tierra que han sido removidas por el arado; están compuestas por un armazón que pueden ser de madera y metal, los dientes y el enganche que la une al tractor.
Asperjadora: es un equipo agrícola diseñado para fumigar; está compuesta por un depósito de líquido, bomba de presión, tapa, boca, tanque y válvula de presión, correas, manguera, llave y la boquilla por donde sale el líquido para fumigar, sea insecticida, fungicida o herbicida. La asperjadora manual se coloca en la espalda del rociador y este lleva colocada en la boca y nariz una mascarilla especial para evitar que los fuertes olores despedidos por la sustancia que expele la asperjadora le hagan daño.
Sembradora de siembra directa: es un equipo para colocar las simientes sobre la cama de siembra, sin laboreo previo.
Abonadora: es un equipo agrícola diseñado para distribuir fertilizantes; está compuesta por tres partes principales: la tolva o depósito del abono, el tubo de caída del fertilizante y el distribuidor del fertilizante.
Empacadora: es un equipo agrícola diseñado para empaquetar o empacar la paja de los cereales u otras plantas herbáceas forrajeras en balas (también llamadas pacas o alpacas).
Herramientas agrícolas[editar]
Artículo principal: Herramientas agrícolas

Colección de aperos agrícolas, de izquierda a derecha: hoz, pala, hachas, horcas, sierra, rastrillo, pico y azadas. Recogidos en Cuenca, España.
Las herramientas agrícolas son instrumentos que se utilizan para labrar la tierra, cargar arena, deshierbar, remover la tierra, abrir zanjas, transportar abono o material, etc. Son muchas y muy variadas las herramientas agrícolas, entre las que se mencionan:
Barretones: son palancas de acero terminadas en hoja planta y semiplanta del mismo metal, mango de mediana longitud.
Carretillas: son cargos pequeños que tienen una rueda y sirven para cargar y descargar material agrícola, sea arena, tierra, abonos.
Escardillas: son herramientas con extremo en forma de pala; es de metal con borde inferior de filo cortante; sirve para remover la tierra.
Machetes: son herramientas diseñadas para cortar; tienen una hoja de acero larga y afilada, unida a un mango de madera.
Palas: son láminas de metal, preferiblemente acero, que se usan para labrar la tierra; pueden ser de punta o de forma ancha; tienen borde inferior con filo cortante y mango largo de madera terminado en un asa de metal.
Picos: son instrumentos compuestos de una parte de acero cuyos extremos terminan en forma de pala rectangular, por un lado, y por la tierra en forma vertical; tiene una pala rectangular con borde inferior de filo y mango de madera o metal.
Rastrillos: diseñados para cubrir o rastrillar semillas; tienen una parte horizontal de metal y formada por dientes delgados o gruesos según el uso.
Regaderas: son envases de metal con depósito para agua, con un tubo que termina en una pieza redonda con muchos agujeros pequeños; sirve para regar plantas.
Transplantadora: son pequeñas palas de metal en forma de cuchara pequeña, de bordes afilados y mango de madera. Sirven para sacar semillas.
Diferencias entre maquinarias, equipos y herramientas según su uso[editar]
La diferencia es que las maquinarias se encargan de remover la tierra, mientras que los equipos se encargan de ayudar al terreno, de deshacerse de lo que no debería estar en la tierra, y las herramientas ayudan a transportar y excavar para sembrar un nuevo cultivo.
Importancia de las maquinarias, equipos y herramientas en la labor agrícola[editar]
La importancia que existe en:
Las maquinarias agrícolas se utilizan para arrastrar, desmenuzar o remover la tierra, limpieza y para sembrar.
Los equipos agrícolas se utilizan para labrar la tierra, eliminar la maleza, fumigar las plantas y para abonar el suelo.
Las herramientas agrícolas se utilizan para abrir zanjas, cargar tierra, extraer raíces, arrancar hierbas, perforar el suelo y rociar con agua las plantas.
Políticas agrarias[editar]
La política agraria es muy compleja debido a la necesidad de equilibrar la ecología, las necesidades del país y los problemas sociales de quienes viven del campo.
La agricultura es un tema clave en la lucha por la justicia global. A pesar de existir un exceso de comida en los mercados mundiales, que hace que los precios caigan de forma continuada, aún no se ha resuelto el problema del hambre en el mundo. La rápida pérdida de tierras cultivables y la disminución de la cantidad de agua dulce disponible, de la que un 70 % se utiliza para la agricultura, son hoy una de las principales causas de la pobreza. La lucha contra el hambre que sufren 800 millones de seres humanos no es posible sin una profunda reforma de la política agraria global.
Los países ricos protegen a sus agricultores, bien a través de subvenciones a la producción, bien a través de fuertes aranceles a los productos extranjeros. Esto causa que los agricultores de países pobres se vean incapaces de competir en igualdad, por lo que actualmente existe una gran oposición por parte de muchos sectores a estos apoyos.
Las patentes otorgadas a las compañías que desarrollan nuevos tipos de semillas por ingeniería genética han permitido que se licencien a los agricultores las semillas de forma muy similar a la utilizada para licenciar software. Esto ha cambiado la balanza de poder en favor de los fabricantes de semillas, que pueden ahora dictar términos y condiciones antes imposibles. Debido a que si el agricultor no accede a las demandas de la compañía, esta no le vende la semilla. Esto ha hecho que muchos les acusen de biopiratería, ya que muchas de estas empresas se dedican a investigar las propiedades de las plantas, partiendo de conocimientos milenarios. Dándose la paradoja de que al patentar estos conocimientos, obligando a los pueblos de los que han aprendido dicho conocimiento, a pagarles por su uso.
Estudios económicos[editar]
Con objeto de impulsar las exportaciones de productos agrícolas, diversos organismos gubernamentales publican estudios económicos por productos y por países, a través de internet. Entre otros, se encuentran el FAS del Departamento de Agricultura de los Estados Unidos (USDA), Agricultura y Agroalimentario Canadá (AAFC), Austrade y NZTE, que representan cuatro de los países más importantes a nivel de exportación de productos agrícolas. La Federación de Asociaciones de Comercio Internacional publica estudios de FAS y AAFC, así como de otros organismos no gubernamentales, en su página web globaltrade.net.7
Filosofía de la agricultura[editar]
La filosofía de la agricultura es, a grandes rasgos, una disciplina dedicada a la crítica sistemática de los marcos filosóficos (o cosmovisiones éticas) que son la base para las decisiones relativas a la agricultura.8
Muchos de estos puntos de vista también se utilizan en la toma de decisiones sobre el uso del suelo en general. En el uso diario, puede definirse como la búsqueda de la sabiduría asociada a la agricultura, como uno de los componentes que fundan la civilización.9

Ha recibido 1896 puntos

Vótalo:

PENICILINA (1928)

7. PENICILINA (1928)

https://www.youtube.com/watch?v=EVDPcY8308E

Las penicilinas son antibióticos del grupo de los betalactámicos empleados profusamente en el tratamiento de infecciones provocadas por bacterias sensibles. La mayoría de las penicilinas son derivados del ácido 6-aminopenicilánico, difiriendo entre sí según la sustitución en la cadena lateral de... Ver mas
Las penicilinas son antibióticos del grupo de los betalactámicos empleados profusamente en el tratamiento de infecciones provocadas por bacterias sensibles. La mayoría de las penicilinas son derivados del ácido 6-aminopenicilánico, difiriendo entre sí según la sustitución en la cadena lateral de su grupo amino. La penicilina G o bencipenicilina fue el primer antibiótico empleado ampliamente en medicina; su descubrimiento ha sido atribuido a Alexander Fleming en 1928, que obtuvo el Premio Nobel en Fisiología o Medicina en 1945 junto con los científicos Ernst Boris Chain y Howard Walter Florey, creadores de un método para producir el fármaco en masa.
No se conoce por completo el mecanismo de acción de las penicilinas, si bien su analogía a la D-alanil-D-alanina terminal, situada en la cadena lateral peptídica de la subunidad del peptidoglicano, sugiere que su carácter bactericida deriva de su intervención como inhibidor del proceso de transpeptidación durante la síntesis de aquel. De este modo, la penicilina actúa debilitando la pared bacteriana y favoreciendo la lisis osmótica de la bacteria durante el proceso de multiplicación.1
Existe una gran diversidad de penicilinas. Algunas especies de hongos del género Penicillium sintetizan de forma natural penicilinas, como el primer tipo aislado, la penicilina G. No obstante, debido a la aparición de resistencias, se han desarrollado otras familias siguiendo básicamente dos estrategias: la adición de precursores para la cadena lateral en el medio de cultivo del hongo productor, lo que se traduce en la producción de penicilinas biosintéticas; y la modificación química de la penicilina obtenida por la fermentación biotecnológica, lo que da lugar a las penicilinas semisintéticas.2
Las penicilinas difieren entre sí según su espectro de acción. Por ejemplo, la bencilpenicilina es eficaz contra bacterias Gram positivas como estreptococos y estafilococos, y Gram negativas, como gonococos y meningococos, pero debe administrarse por vía parenteral debido a su sensibilidad al pH ácido del estómago. La fenoximetil penicilina es, en cambio, resistente a este pH y puede administrarse por vía oral. La ampicilina, además de mantener esta resistencia, es eficaz contra otras bacterias Gram negativas como Haemophilus, Salmonella y Shigella.1
Si bien las penicilinas son los antibióticos menos tóxicos, pueden causar alergias, en ocasiones severas. Sin embargo, solo el 1 % de los pacientes que reciben tratamientos con betalactámicos las desarrollan.3 Puesto que un shock anafiláctico puede conducir a la muerte del paciente, es necesario interrogarlo antes de iniciar el tratamiento.
Además de sus propiedades antibacterianas, la penicilina es un efectivo antídoto contra los efectos del envenenamiento por α-amanitina, uno de los aminoácidos tóxicos de los hongos del género Amanita.4
Índice [ocultar]
1 Historia de las penicilinas
1.1 Alexander Fleming
1.2 Primeras aplicaciones en medicina y aislamiento
1.3 Desarrollo de la producción industrial y otras penicilinas
1.4 Penicilinas sintéticas
2 Estructura química
2.1 Propiedades
2.2 Alérgenos
3 Clasificación
3.1 Penicilinas naturales y biosintéticas
3.1.1 Bencilpenicilina o penicilina G
3.1.2 Fenoximetilpenicilina o penicilina V
3.2 Penicilinas semisintéticas
3.2.1 Resistentes a β-lactamasas
3.2.2 Aminopenicilinas
3.2.3 Antipseudomónicas
3.2.3.1 Carboxipenicilinas
3.2.3.2 Ureidopenicilinas
3.2.4 Amidinopenicilinas
3.2.5 Resistentes a betalactamasas de Gram negativos
4 Mecanismo de acción
5 Uso en clínica
5.1 Aplicación veterinaria
5.2 Implicaciones clínicas
6 Farmacología
6.1 Unidades
6.2 Reacciones adversas
6.2.1 Alergia a la penicilina
6.2.2 Interacciones medicamentosas
6.3 Resistencia a la penicilina
7 Producción biotecnológica
7.1 Biosíntesis y semisíntesis
7.2 Regulación de la síntesis
8 Véase también
9 Notas
10 Referencias
11 Enlaces externos
Historia de las penicilinas[editar]
Véase también: Anexo:Descubrimiento de la penicilina
Aunque generalmente se atribuye a Alexander Fleming el descubrimiento de la penicilina, muchas épocas y culturas diferentes llegaron mediante la observación y la experiencia a conocer y emplear las propiedades bactericidas de los mohos. Se han descubierto precedentes en la Grecia e India antiguas, y en los ejércitos de Ceilán del siglo II. Ha estado también presente en las culturas tradicionales de regiones tan distintas y distantes como Serbia, Rusia o China, así como en los nativos de Norteamérica.5 6 Se solía aplicar alimentos florecidos o tierra del suelo que contuviera hongos a las heridas de guerra. Desde el siglo VIII por lo menos, los médicos árabes curaban infecciones untando las heridas con una pasta blanca que se formaba en los arneses de cuero con que se ensillaban los burros de carga. A lo largo del siglo XVII algunos farmacólogos y herboristas ingleses, como John Parkington, incluyeron el tratamiento con hongos en los registros de farmacia.N 1

Hospital St. Mary de Londres, en cuya famosa ala Clarence estaba situada el departamento de inoculación de Almroth Wright y Alexander Fleming donde tuvo lugar el descubrimiento de la penicilina.7 8
A finales del siglo XIX, Henle (uno de los grandes científicos de la llamada "generación intermedia") suscita en su discípulo Robert Koch, en la Universidad de Gotinga, el interés por los trabajos de Agostino Bassi y Casimir Davaine, que le llevaría a investigar a los microorganismos como agentes causales de las enfermedades. Esto le conduciría en 1876 a descubrir que Bacillus anthracis era el agente causal específico del carbunco, en la línea de la teoría microbiana de la enfermedad, y a enunciar sus célebres postulados.9 Más tarde, Paul Ehrlich, que trabajó con Koch en Berlín, desarrolló el concepto de "Magische Kugel" o bala mágica, denominando así a aquellos componentes químicos que pudieran eliminar selectivamente a los gérmenes. Finalmente, en 1909 consiguió sintetizar un compuesto, el Nº 606, más tarde conocido como salvarsán, que se mostró eficaz contra la sífilis.10 Este descubrimiento influyó posteriormente en Alexander Fleming, hasta el punto de que existen caricaturas del joven Fleming caracterizado y apodado como "recluta 606".11
Al mismo tiempo o poco después, conocido el hecho de que las bacterias podían provocar enfermedades, se sucedieron multitud de observaciones, tanto in vivo como in vitro, de que los mohos ejercían una acción bactericida. Por solo citar algunos nombres, sirvan de ejemplo los trabajos de John Scott Burdon-Sanderson, Joseph Lister, William Roberts, John Tyndall, Louis Pasteur y Jules Francois Joubert, Carl Garré, Vincenzo Tiberio, Ernest Duchesne, Andre Gratia y Sara Dath.
En marzo de 2000, médicos del Hospital San Juan de Dios de San José (Costa Rica) publicaron los escritos del científico y médico costarricense Clodomiro Clorito Picado Twight (1887-1944). En el reporte explican las experiencias que adquirió Picado entre 1915 y 1927 acerca de la acción inhibitoria de los hongos del género Penicillium sobre el crecimiento de estafilococos y estreptococos (bacterias causantes de una serie de infecciones humanas).12 Aparentemente, Clorito Picado reportó su descubrimiento a la Academia de Ciencias de París, pero no lo patentó, a pesar de que su investigación había sido iniciada unos pocos años antes que la de Fleming.13 14
Alexander Fleming[editar]
Artículo principal: Alexander Fleming

Fotografía de Alexander Fleming, descubridor de la penicilina, en su laboratorio
El descubrimiento de la penicilina ha sido presentado como un ejemplo «icónico» de cómo procede el método científico a través de la observación, y de la habilidad singular de Alexander Fleming interpretando un fenómeno casual.15 El propio Fleming abona esta versión en su conferencia de recepción del Premio Nobel.16 Sin embargo, algunos autores revisan esta historia oficial, y opinan que, sin restar méritos, está distorsionada por mitos, la necesidad de propaganda en la Segunda Guerra Mundial y también una cierta lucha por el prestigio de instituciones con influencias sobre áreas del poder y la prensa.17 18 19 George Wong, al considerar la versión de un descubrimiento casual, hace notar los siguientes antecedentes:20
Conocía a casi todos los autores mencionados en el apartado anterior. Su gran número es ya por sí solo indicador de que existía toda una corriente que investigaba en el campo con mutuo conocimiento de trabajos. El propio Fleming lo admite en su conferencia de Nobel.16
Buscaba activamente una sustancia bactericida: impresionado por los campos de guerra europeos en la Primera Guerra Mundial y las bajas por infección en las heridas, ensayó con salvarsán, descubrió la lisozima constatando que no afectaba a ninguno de los organismos problemáticos de la penicilina, y ello aun en contra de la línea marcada por su jefe, Almroth Wright, más interesado en la inmunización. Compara en su primer trabajo el espectro de acción de la penicilina y la lisozima.
El descubrimiento de la penicilina según Fleming ocurrió en la mañana del viernes 28 de septiembre de 1928, cuando estaba estudiando cultivos bacterianos de Staphylococcus aureus en el sótano del laboratorio del Hospital St. Mary en Londres, situado en el Ala Clarence, ahora parte del Imperial College.21 Tras regresar de un mes de vacaciones, observó que muchos cultivos estaban contaminados y los tiró a una bandeja de lysol. Afortunadamente, recibió una visita de un antiguo compañero y, al enseñarle lo que estaba haciendo con alguna de las placas que aún no habían sido lavadas, se dio cuenta de que en una de ellas, alrededor del hongo contaminante, se había creado un halo de transparencia, lo que indicaba destrucción celular. La observación inmediata es que se trataba de una sustancia difusible procedente del contaminante. Posteriormente aisló y cultivó el hongo en una placa en la que disponía radialmente varios microorganismos comprobando cuáles eran sensibles. La identificación del espécimen como Penicillium notatum la realizó Charles Tom. Publicó su descubrimiento sin que recibiera demasiada atención y, según los compañeros de Fleming, tampoco él mismo se dio cuenta en un inicio del potencial de la sustancia, sino progresivamente, en especial por su baja estabilidad. En su trabajo obtuvo un filtrado libre de células que inyectó a conejos, comprobando así que carecía de toxicidad. También apreció su utilidad para aislar Haemophilus influenzae a partir de esputos.20 22 23
Primeras aplicaciones en medicina y aislamiento[editar]

Aspecto al microscopio óptico de las hifas y conidióforos de Penicillium, hongo del cual se aisló la penicilina.
Debido a su carácter tímido, Fleming no conseguía transmitir entusiasmo sobre su descubrimiento, aunque continuó durante mucho tiempo trabajando en él, hasta 1934 en que lo abandonó para dedicarse a las sulfamidas.20 La primera demostración de que la penicilina era útil para la medicina la llevó a cabo en 1930 el patólogo inglés Cecil George Paine, antiguo alumno de Fleming, que intentó tratar la psicosis, pero sin éxito, probablemente porque el medicamento no era administrado con suficiente profundidad. Sin embargo, logró tener éxito aplicando el filtrado en neonatos para el tratamiento de la oftalmía neonatal, logrando su primera cura el 25 de noviembre de 1930, en un adulto y tres bebés.24 Aunque estos resultados no fueron publicados, influyeron en Howard Walter Florey, que fue compañero de Paine en la Universidad de Sheffield.
Entre 1928 y 1938 Florey se interesó en primer lugar por la lisozima, y posteriormente por el segundo descubrimiento de Fleming. A diferencia de este último, que casi no contaba con plantilla, formó un gran equipo con personalidades de la talla de Chain, Leslie Falk, Norman Heatley y hasta otros 22 colaboradores entre investigadores y técnicos con gran cantidad de medios en la escuela de patología Sir William Dunn de Oxford, aunque curiosamente, según Florey, no por su potencial farmacéutico, sino por un puro interés científico. Su capacidad de procesado superaba los 500 litros de cultivo semanales.20
La purificación de la penicilina se produjo en 1939, a cargo del bioquímico Heatley, utilizando grandes volúmenes de filtrado mediante un sistema a contracorriente y extracción por amil acetato. Edward Abraham terminó de eliminar el resto de impurezas por cromatografía en columna de alúmina. Posteriormente se probó la sustancia en ratones infectados con Streptococcus. El primer ser humano tratado con penicilina purificada fue el agente de policía Albert Alexander en el Hospital John Radcliffe, el 12 de febrero de 1941. El paciente falleció porque no se le pudo administrar suficiente fármaco.25
Las primeras compañías en interesarse por la patente fueron Glaxo y Kemball Bishop.
Desarrollo de la producción industrial y otras penicilinas[editar]

Galpón de fermentación, similar a los calderos donde se preparó por primera vez la producción masiva de penicilina sumergida, en Illinois, Estados Unidos.
A partir de las investigaciones de Florey en 1939 y de Heatley en 1941, la producción industrial de la penicilina en Europa se vio en apuros económicos debido al comienzo de la Segunda Guerra Mundial. Los científicos británicos buscaron ayuda en los Estados Unidos, específicamente en los laboratorios de Peoria, Illinois donde sus científicos estaban trabajando en métodos de fermentación para acelerar el crecimiento de cultivos de hongos.26 El 9 de julio de 1941 Florey y Heatley partieron de la Universidad de Oxford con una pequeña cantidad de penicilina hacia los Estados Unidos. Bombearon aire dentro de enormes cubas llenas de maíz fermentado con otros ingredientes y aditivos claves lo que demostró poder hacer crecer rápidamente grandes cantidades de penicilina en comparación con los antiguos métodos de crecimiento sobre superficies planas.27 La cepa de Penicillium que tuvo el mejor rendimiento no fue la importada por los científicos británicos sino una cepa que crecía sobre un melón en uno de los mercados de Peoria, mejorando la cantidad de producción en las condiciones inmersas de la nueva técnica del laboratorio estadounidense, aproximadamente 70-80 unidades de penicilina por mililitro de cultivo.28
El 26 de noviembre de 1941, Heatley y Andrew J. Moyer, el experto del laboratorio en Peoria, lograron mejorar 10 veces la producción de penicilina. Con el aumento de la cantidad de penicilina también bajó el costo de una dosis. Desde el precio incalculable en 1940, el precio de la penicilina bajó a US$20 por dosis en julio de 1943 y más aún a $0,55 por dosis en 1946. Como consecuencia, los laboratorios en Gran Bretaña en 1999 y en Peoria en 2001 fueron designados como Monumento Químico Histórico Internacional (International Historic Chemical Landmark).29 30
Penicilinas sintéticas[editar]
Una de las varias presentaciones de la penicilina producida de modo natural es la bencilpenicilina o penicilina G, la única que se usa clínicamente. A ella se asociaron la procaína y la benzatina para prolongar su presencia en el organismo, obteniéndose las respectivas suspensiones de penicilina G + procaína y penicilina G benzatina, que solo se pueden administrar por vía intramuscular.
Más tarde, se modificó la molécula de penicilina G para elaborar penicilinas sintéticas, como la penicilina V, que se pueden administrar por vía oral al resistir la hidrólisis ácida del estómago. Sin embargo, el relativamente estrecho espectro de acción de la actividad de la penicilina V hizo que se sintetizaran derivados con acción sobre una más amplia gama de agentes infecciosos. El primer paso fue el desarrollo de la ampicilina, efectiva frente a patógenos Gram positivos y Gram negativos, que además resultó considerablemente económica de adquirir. Otro avance fue el desarrollo de la flucloxacilina, usada contra bacterias productoras de β-lactamasa como los Staphylococcus. Actualmente existen múltiples derivados sintéticos de la penicilina, como la cloxacilina y la amoxicilina, que se administran por vía oral y de las que existe un abuso de consumo por la sociedad en general para autotratamiento de infecciones leves víricas que no precisan terapia antibiótica. Esta situación ha provocado un alto porcentaje de resistencia bacteriana frente a las penicilinas y ha llevado a la ineficacia de los betalactámicos en algunas infecciones graves.
Las penicilinas han sido ampliamente utilizadas en el campo de la veterinaria desde 1950, en que comenzaron a añadirse como aditivos en el pienso, debido a su efectividad reduciendo la mortalidad y la morbilidad frente a infecciones clínicas, así como el incremento de la tasa de engorde.31 De hecho, la amoxicilina fue descrita en 1976 como una penicilina para uso veterinario.32 Se ha sugerido la relación entre este uso y la selección de cepas resistentes con capacidad de infectar a humanos. Sin embargo, aunque algunos antibióticos se aplican en ambos campos, la mayoría de las resistencias en humanos se han desarrollado por un mal uso en medicina.33
Estructura química[editar]

Estructura molecular del núcleo de las penicilinas. Se muestra el anillo 6-aminopenicilánico consistente en un anillo β-lactámico (a la izquierda, con un N) y otro tiazolidínico (a la derecha, con un S).
Las penicilinas pertenecen a una familia de compuestos químicos con una estructura química peculiar que le confiere una actividad característica contra un grupo determinado de bacterias.17 A pesar de que existen diferentes variantes, la estructura química esencial de la penicilina fue descubierta por Dorothy Crowfoot Hodgkin entre 1942 y 1945.34 La mayoría de las penicilinas poseen como núcleo químico el anillo 6-aminopenicilánico y difieren entre sí según la cadena lateral anclada a su grupo amino. Este núcleo 6-aminopenicilánico o núcleo penam consta, a su vez, de un anillo tiazolidínico (un anillo aminofenílico de los tiazoles) enlazado a un anillo β-lactámico;35 este último, aparentemente esencial para la actividad antimicrobiana del compuesto,36 es hidrolizado mediante penicilinasas (enzimas tipo β-lactamasas) por las bacterias resistentes a penicilinas.1
Además del nitrógeno y el azufre del anillo tiazolidínico y β-lactámico, la penicilina tiene las siguientes agrupaciones:
Un grupo carboxilo en la posición 2.
Un radical 2-metil en la posición 3.
Un grupo amino en la posición 6, con distintos derivados del grupo acilo como posibles sustituyentes, que son los responsables de las diversas características de las diferentes penicilinas.
En la molécula hay tres carbonos asimétricos:
El carbono C2, que tiene una configuración absoluta S (sentido contrario a las agujas del reloj).
Los carbonos C5 y C6, que tienen una configuración absoluta R, presentando cada uno de sus hidrógenos isomería cis entre ellos.
Propiedades[editar]
La penicilina natural o penicilina G es cristalina, totalmente soluble en agua, soluciones salinas y dextrosas isotónicas. El radical R, es el responsable de la sensibilidad a la hidrólisis por parte de las β-lactamasas, del enlace a proteínas transportadoras y del vínculo con las proteínas bacterianas PBP que transportan a la penicilina dentro de la célula.37 Además, se le asocia a la penicilina un dipéptido cisteína-valina, haciendo que la penicilina tenga la ideal afinidad por la enzima bacteriana transpeptidasa, la cual no se encuentra en el cuerpo humano y que permite la síntesis del peptidoglucano.
Existe una analogía estructural entre la penicilina y el dipéptido D-alanil-D-alanina terminal asociado a las unidades de peptidoglicano que aparecen durante la formación de la pared celular de ciertas bacterias (proceso de transpeptidación). El nucleófilo O(-) serina de la transpeptidasa ataca los grupos carbonilos de los ß-lactámicos, como la penicilina, por esa analogía a su sustrato D-Ala-D-Ala, el dipéptido antes mencionado. De esa manera, uniéndose covalentemente a los residuos de serina del sitio activo de la enzima en forma de complejo peniciloil, la penicilina inhibe a la transpeptidasa bacteriana.37
Alérgenos[editar]
Los metabolitos que derivan de la molécula intacta de penicilina actúan como haptenos y se vuelven inmunitariamente activos a través de su unión de tipo covalente, con las proteínas endógenas en el cuerpo, preferentemente por ataques a los grupos amino de la lisina de estas proteínas transportadoras, pudiendo inducir así una reacción de hipersensibilidad.36 38 El intermediario antigénico de las penicilinas es el ácido peniciloil que se forma al abrirse el anillo β-lactámico. El 95 % de la droga unida a los tejidos aparece en esta forma. Dicho ácido, conjugado con un transportador proteico inmunogénico es uno de los agentes más usados en las pruebas cutáneas para determinar si un paciente es alérgico a la penicilina. Otros determinantes menos frecuentes, que incluyen al benzilpeniciloato y la amina-benzilpeniciloil son productos que se forman in vivo y pueden también encontrarse en las soluciones de penicilina preparadas para su administración comercial, que pueden inducir una reacción de hipersensibilidad.36
Clasificación[editar]
Clasificación de las Penicilinas39
Naturales Resistentes
al ácido Antiestafilocócicas Gram negativas
Penicilina G
(bencil) Penicilina V Meticilina
Isoxazolilopenicilinas:
Cloxacilina
Dicloxacilina
Flucloxacilina
Oxacilina
Temocilina
Penicilina G
Procaína Feneticilina Nafcilina
Penicilina G
benzatina Propicilina
Aminopenicilinas Antipseudomonas Amidinopenicilinas
Amoxicilina
Ampicilina:
Becampicilina
Metampicilina
Pivampicilina
Talampicilina
Ticarcilina
Carbenicilina:
Carfecilina
Carindacilina
Mecilinam
Hetacilina Apalcilina Pivmecilinam
Espicilina Ciclacilina Azlocilina Mezlocilina
Penicillin-nucleus-3D-balls.png Benzylpenicillin-3D-balls.png Amoxicillin-3D-balls.png Flucloxacillin-3D-balls.png 6-aminopenicillanic-acid-3D-balls.png
Núcleo común
Bencilpenicilina
Amoxicilina
Flucloxacilina
Una aminopenicilina

Las penicilinas se clasifican en dos grupos, naturales y semisintéticas, y en cada uno de ellos hay compuestos relativamente resistentes al jugo gástrico y por lo tanto se pueden administrar por vía oral, por ejemplo, la penicilina V, la dicloxacilina y la amoxicilina.
El término penicilina se usa a menudo, en sentido genérico, para cualquiera de las variantes que derivan de la penicilina misma, en especial, la benzilpenicilina. Estas tienen la mayor actividad contra organismos Gram positivos, cocos Gram negativos y organismos anaerobios que no producen β-lactamasa. Sin embargo, presentan una baja actividad contra bacilos Gram negativos. Todos son susceptibles a la hidrólisis por β-lactamasas. La penicilamina, un metabolito de la penicilina y análogo del aminoácido cisteína, es efectivo para el alivio de la artritis reumatoide reduciendo la velocidad de aparición de nuevos daños a articulaciones, aunque rara vez es recetado debido a su elevada toxicidad.40 También existen en el mercado penicilinas sintéticas, como la ticarcilina, la mezlocilina y la piperacilina.
Penicilinas naturales y biosintéticas[editar]
Las penicilinas naturales son aquellas generadas sin intervención biotecnológica. Entre ellas destacan la bencilpenicilina, como producto final de interés terapéutico, y los intermediarios aislables como la isopenicilina N o la penicilina N. Las biosintéticas, en cambio, se producen mediante adición de determinados compuestos en el medio de cultivo del biorreactor empleado durante su producción, es decir, sin que tenga lugar un aislamiento y una modificación química ex vivo. Entre las biosintéticas destacan: la fenoximetilpenicilina, la alilmercaptometilpenicilina y, de nuevo, la bencilpenicilina (pues es posible inducir su síntesis aplicando ciertos precursores en el fermentador).1
Bencilpenicilina o penicilina G[editar]
Artículo principal: Bencilpenicilina

Estructura química de la bencilpenicilina.
La bencilpenicilina, comúnmente conocida como penicilina G, es el estándar de las penicilinas. Por lo general se administra por vía parenteral (intravenosa, intratecal o intramuscular), porque tiende a perder estabilidad con el jugo gástrico del estómago. Debido a que se administra inyectada, se pueden alcanzar mayores concentraciones del medicamento en los tejidos que con la penicilina V o fenoximetilpenicilina. Estas mayores concentraciones se traducen en una mayor eficacia antibacteriana.
Las ventajas de la penicilina G son su bajo costo, su fácil administración, su excelente penetración en los tejidos y su índice terapéutico favorable. En contraste, las desventajas son su degradación por el ácido gástrico, su destrucción por las β-lactamasas bacterianas y su asociación con el desarrollo de reacción adversa en cerca del 10 % de los pacientes.
Las indicaciones específicas de la penicilina G incluyen:41 celulitis, endocarditis bacteriana, gonorrea, meningitis, neumonía por aspiración, absceso pulmonar, neumonía adquirida en la comunidad, sífilis y sepsis en niños.
Bencilpenicilina procaína
La bencilpenicilina procaína (DCI), conocida también como penicilina G procaína, es una combinación de la penicilina G con un anestésico local, la procaína. Esta combinación tiene como fin reducir el dolor y la incomodidad asociada con la voluminosa inyección intramuscular de penicilina. Tras la administración de una inyección intramuscular, el fármaco se absorbe lentamente en la circulación y se hidroliza a bencilpenicilina. Por ello, es administrada cuando se desea que sus concentraciones sean bajas pero prolongadas. Este antibiótico es muy utilizado en veterinaria.
La penicilina procaínica se indica para todas las infecciones locales graves por estreptococos, bacterias anaerobias, neumococos y gonococos, sífilis, ántrax por B. anthracis (como coadyuvante), otitis media aguda purulenta, mastoiditis aguda, amigdalitis aguda por estreptococo hemolítico del grupo A, neumonía neumocócica, absceso peritonsilar y submandibular y gonorrea. Las indicaciones específicas de la procaína penicilina incluyen:41 sífilis,N 2 infecciones del aparato respiratorio donde el paciente no cumple su tratamiento oral, celulitis y erisipela.
En el pasado se usaba para el tratamiento de la gonorrea genitourinaria. Sin embargo, la bacteria Neisseria gonorrhoeae frecuentemente produce β-lactamasas y ha llegado a desarrollar resistencia a la penicilina, por lo que se ha reemplazado por ceftriaxone. También se usaba para el tratamiento de la neumonía neumocócica no complicada, pero el surgimiento del Streptococcus pneumoniae penicilinorresistente en algunos países ha limitado su uso.
Bencilpenicilina benzatínica
La bencilpenicilina benzatínica o penicilina G benzatínica (DCI), es una combinación con benzatina que se absorbe lentamente en la circulación sanguínea después de una inyección intramuscular y luego se hidroliza a bencilpenicilina. Es la primera opción cuando se requiere una concentración baja de bencilpenicilina, permitiendo una acción prolongada del antibiótico por más de 2-4 semanas por cada inyección. La administración de penicilina G benzatínica o benzetacil L-A puede presentar ocasionalmente una reacción alérgica anafiláctica en pacientes hipersensibles. La penicilina G sódica es administrada en casos de difteria, de infecciones del aparato respiratorio o del aparato genital y en ciertas infecciones producidas por Gram negativos, como la meningitis y la endocarditis.40 Puede causar urticaria, prurito y, muy rara vez, choque anafiláctico.
Las indicaciones específicas de la bencilpenicilina benzatínica incluyen:41 profilaxis de la fiebre reumática y sífilis en fase temprana o latente.
Fenoximetilpenicilina o penicilina V[editar]
Artículo principal: Fenoximetilpenicilina

Estructura química de la fenoximetilpenicilina.
La fenoximetilpenicilina, comúnmente llamada penicilina V, es la única penicilina activa por vía oral. Tiene una actividad menor que la bencilpenicilina, por lo que se administra cuando no se requiere alcanzar concentraciones elevadas en los tejidos.
Con la penicilina oral V, el espectro es prácticamente igual al de la penicilina G: estreptococos, neumococos y Neisseria, algunos anaerobios y estafilococos no productores de penicilinasa. No es inactivada por el jugo gástrico, alcanzándose en poco tiempo concentraciones adecuadas de penicilina en tejidos y plasma sanguíneo. La absorción no está influida por las comidas. Las indicaciones específicas para la penicilina V incluyen:41 infecciones causadas por Streptococcus pyogenes (como la amigdalitis, la faringitis e infecciones de la piel), profilaxis de la fiebre reumática y gingivitis moderada o severa (junto con metronidazol).
La penicilina V es la primera opción en el tratamiento de infecciones odontológicas. Ocasionalmente puede causar diarreas que no suelen requerir suspensión de la terapia. Rara vez produce reacciones alérgicas severas y suelen ser más leves que con penicilina parenteral.
Penicilinas semisintéticas[editar]
Las penicilinas semisintéticas son aquellas generadas mediante el aislamiento de un intermediario estable durante una producción microbiológica industrial (fermentación en biorreactores) continuada por la modificación química o enzimática del compuesto aislado.1 Se dividen según su acción antibacteriana en cinco grupos: resistentes a β-lactamasas, aminopenicilinas, antipseudomonas, amidinopenicilinas y resistentes a β-lactamasas (Gram negativas).44
Resistentes a β-lactamasas[editar]

Estructura química de la meticilina.
Su uso es principalmente en infecciones por estafilococos productores de β-lactamasas, como el Staphylococcus aureus. También presentan actividad, aunque reducida, frente a estreptococos, pero carecen de ella frente a enterococos.45
La meticilina es una penicilina de espectro reducido desarrollada por la farmacéutica Beecham en 1959. Cuando se desarrolló, era especialmente activa contra Gram positivos productores de β-lactamasas como Staphylococcus aureus, si bien el desarrollo de resistencia por parte de estos últimos (Staphylococcus aureus resistente a meticilina (SAMR)) impide actualmente su uso clínico.
Posteriormente aparecieron la oxacilina y la nafcilina para uso parenteral, y dos drogas para uso oral, la cloxacilina y la dicloxacilina.
Aminopenicilinas[editar]
Su espectro de acción es muy grande, pero son sensibles a las β-lactamasas. Se administran en casos de infecciones respiratorias de las vías altas por estreptococos (sobre todo, S. pyogenes y S. pneumoniae) y por cepas de Haemophilus influenzae, infecciones urinarias por ciertas enterobacterias (como Escherichia coli y diversas infecciones generadas por Streptococcus faecalis, Salmonella spp., Shigella spp. y Listeria monocytogenes.46

Estructura química de la ampicilina.
La ampicilina es el epímero D(-) de la aminopenicilina, un β-lactámico con un grupo fenil. Se desarrolló en los laboratorios Beecham (actual GlaxoSmithKline) como respuesta a la necesidad de encontrar derivados de la penicilina de mayor espectro, dada la aparición de cepas resistentes.47 El año 1959 se descubrió que el epímero D(-) de la aminopenicilina con un grupo fenil era el más activo de los derivados sintetizados. Administrada oralmente, la ampicilina es absorbida, se une parcialmente a proteínas plasmáticas (15 a 25 %) y es biodisponible en un 40 %. Se excreta principalmente por el riñón.
La pivampicilina es un ester metilado de la ampicilina, administrada en forma de pro-droga,48 lo cual potencia la biodisponibilidad del medicamento, dada su mayor liposolubilidad.49 En medicina es indicado para el tratamiento de pacientes, especialmente ancianos, con infecciones agudas de las vías aéreas inferiores, como la neumonía y la bronquitis.50
La amoxicilina es una aminopenicilina de amplio espectro. Como estrategia para potenciar la resistencia a las β-lactamasas, se presenta acompañada de ácido clavulánico. Es indicada para el tratamiento de un gran número de infecciones, incluyendo las del tracto respiratorio, digestivo, genitourinario, sistema nervioso, así como en estomatología y durante la erradicación de Helicobacter pylori en casos de úlcera péptica.
Antipseudomónicas[editar]
Estas penicilinas son de amplio espectro porque su cobertura de acción comprende Gram positivos, Gram negativos y anaerobios. Dentro de este grupo existen dos subgrupos, las carboxipenicilinas y las ureidopenicilinas, atendiendo a su eficacia frente a pseudomonas.51
Carboxipenicilinas[editar]

Estructura química de la ticarcilina.
Fueron desarrolladas para ampliar el espectro de bacterias Gram negativas cubiertas por penicilinas, tales como infecciones nosocomiales causadas por Pseudomonas aeruginosa. Inicialmente se produjo la carbenicilina por sustitución del grupo amino por un grupo carboxilo en la ampicilina y posteriormente algunas sustituciones en la carbenicilina permitieron desarrollar la ticarcilina.
Presentan el mismo espectro de acción que las aminopenicilinas, pero ampliado con Pseudomonas y B. fragilis.45
La ticarcilina es una carboxipenicilina empleada en el tratamiento de infecciones causadas por Gram negativos, especialmente de Pseudomonas aeruginosa, incluyendo casos de neumonía, infecciones de los huesos, estómago, piel, articulaciones, sangre, ginecológicas y de las vías urinarias. La combinación de un aminoglucósido con carbenicilina o ticarcilina ha sido utilizada en el tratamiento de infecciones severas por Pseudomonas. Como estrategia para potenciar la resistencia a las β-lactamasas, se presenta acompañada de ácido clavulánico.52
Actualmente, la carbenicilina no se fabrica en Estados Unidos y se ha sustituido su uso por la ticarcilina, la cual tiene menos efectos adversos y es más eficaz frente a Pseudomonas aeruginosa.53
Ureidopenicilinas[editar]
Se crearon derivadas de la molécula de ampicilina para ampliar aún más el espectro contra las bacterias Gram negativas y las Pseudomonas. Las ureidopenicilinas penetran bien en los tejidos y tiene excelentes concentraciones tisulares, incluyendo el líquido cefalorraquídeo en pacientes con meninges inflamadas, y niveles adecuados en hueso para el tratamiento de osteomielitis. Al igual que las carboxipenicilinas, están asociadas a hipopotasemia, hipernatremia y disfunción plaquetaria. En este grupo de penicilinas están la mezlocilina, azlocilina y la piperacilina.
Amidinopenicilinas[editar]
Presentan gran eficacia frente a Gram negativos, pero escasa ante cocos Gram positivos, debido a su estructura química, la 6-amidinopenicilina.
El mecilinam actúa muy bien frente a enterobacterias. La causa de su éxito ante los Gram negativos se debe a la producción de esferoplastos por su afinidad a la PBP2 y a su efecto sinérgico junto a otros β-lactámicos.54 Sin embargo, el mecilinam no es capaz de actuar frente a bacterias productoras de β-lactamasas ni ante H. influenzae, P. aeruginosa ni B. fragilis. Su utilización está indicada en el caso de infecciones urinarias por enterobacterias, así como también en la fiebre tifoidea y la salmonelosis septicémica.54
El pivmecilinam es el éster del mecilinam y es indicada en los mismos casos, aunque presenta una ventaja en cuanto a la administración. A diferencia de la anterior amidinopenicilina, esta se puede administrar por vía oral, hidrolizándose después a mecilinam.55
Resistentes a betalactamasas de Gram negativos[editar]
El representante del grupo es la temocilina, el cual solo es útil frente a enterobacterias, Haemophilus spp., y Neisseria gonorrhoeae. Las bacterias Gram positivas, anaerobias y Pseudomonas spp. son resistentes a su acción.56
Mecanismo de acción[editar]
La penicilina, como el resto de los β-lactámicos, ejerce una acción bactericida por alterar la pared celular bacteriana, estructura que no existe en las células humanas. La pared bacteriana se encuentra por fuera de la membrana plasmática y confiere a las bacterias la resistencia necesaria para soportar, sin romperse, la elevada presión osmótica que existe en su interior. Además, la pared bacteriana es indispensable para:1
La división celular bacteriana.
Los procesos de transporte de sustancias a los que limita por sus características de permeabilidad.
Capacidad patógena y antigénica de las bacterias, ya que contienen endotoxinas bacterianas.

Penicilina (en blanco) unida a una transpeptidasa bacteriana. La penicilina es tan similar a la enzima bacteriana que se ensambla en ella de manera que impide que la enzima conecte todos sus componentes estructurales.
Hay importantes diferencias en la estructura de la pared entre las bacterias Gram positivas y Gram negativas, de las que cabe destacar la mayor complejidad y contenido en lípidos en las Gram negativas.
La acción de la penicilina, y en general de los β-lactámicos, se desarrolla fundamentalmente en la última fase de la síntesis del peptidoglicano de la pared celular, uniéndose a una enzima transpeptidasa llamada proteína fijadora de penicilina,57 responsable de producir una serie de enlaces cruzados entre las cadenas de péptidos. La formación de estos enlaces o puentes es la que confiere, precisamente, la mayor rigidez a la pared bacteriana. Por lo tanto, los β-lactámicos como la penicilina inhiben la síntesis del peptidoglicano indispensable en la formación de la pared celular bacteriana. Las bacterias sin su pared celular estallan o son más fácilmente fagocitadas por los granulocitos.1
Esta inhibición produce una acumulación de los precursores del peptidoglicano, los cuales producen una activación de enzimas como hidrolasas y autolisinas que digieren, más aún, el remanente de peptidoglicano en la bacteria. Al perder su pared celular como consecuencia de la acción de la penicilina, las bacterias Gram positivas son denominadas protoplastos, mientras que las Gram negativas, que no llegan a perder toda su pared celular, reciben el nombre de esferoplastos.
La penicilina muestra un efecto sinérgico con los aminoglucósidos, puesto que la inhibición de la síntesis del peptidoglicano permite que los aminoglucósidos penetren la pared celular con mayor facilidad, permitiendo así trastornos en la síntesis de proteínas dentro de la célula bacteriana (hecho que resulta en una concentración menor de antibiótico que la requerida para eliminar al microorganismo susceptible).58
Uso en clínica[editar]

Durante la Segunda Guerra Mundial, las autoridades sanitarias anunciaban la penicilina como cura para las enfermedades venéreas.59
Inicialmente, tras la comercialización de la penicilina natural en la década de 1940, la mayoría de las bacterias eran sensibles a ella, incluso el Mycobacterium tuberculosis. Pero debido al uso y abuso de esta sustancia muchas bacterias se han vuelto resistentes, aunque aún sigue siendo activa en algunas cepas de Streptococcus sp, Staphylococcus sp, Neisseria sp, Clostridium sp, Listeria monocytogenes, Haemophilus sp, Bacteroides sp, Escherichia coli, Proteus mirabilis, Klebsiella y Enterobacter.
La penicilina es indicada, por ejemplo, en pacientes embarazadas, a término o no, como medida profiláctica cuando se sospecha en ellas un alto riesgo de infección por el estreptococo del grupo B.
La penicilina V potásica se indica para tratar ciertas formas de neumonía bacteriana, la escarlatina, y las infecciones en oídos, piel y garganta. También se usa para prevenir la fiebre reumática recurrente y la corea infecciosa.60 En forma inyectable, la penicilina V se usa en ciertas infecciones bacterianas de los huesos, estómago, articulaciones, sangre, meningitis y de las válvulas del corazón.61
El tratamiento inicial de una bacteriemia (presencia de bacterias en sangre que ocasiona fiebre alta, confusión, estupor y muerte en apenas 12 horas), se lleva a cabo con la administración de penicilinas semisintéticas como la nafcilina o la metacilina intravenosas, si el paciente no es alérgico o la infección es causada por bacterias sensibles.62
La borreliosis, transmitida por las garrapatas y que puede cursar sin tratamiento por varias semanas o meses causando síntomas neurológicos o cardíacos, es una enfermedad que puede ser tratada con penicilina oral o amoxicilina, especialmente en niños. En los estadios avanzados se suele administrar penicilina intravenosa de 2 a 4 semanas.62
Los antibióticos de preferencia en el tratamiento del tétanos también son las penicilinas a altas dosis.62
Aplicación veterinaria[editar]
La penicilina G se administra en preparados inyectables para el tratamiento de infecciones por organismos susceptibles en múltiples especies veterinarias, incluyendo perros, gatos, hurones domésticos, conejos, erizos y aves. La penicilina G sola o combinada se ha usado con éxito para tratar novillas con mastitis.63 Ciertas especies, incluyendo serpientes, pájaros, tortugas, conejillos de indias y chinchillas, han mostrado sensibilidad a la penicilina procaína.64
Implicaciones clínicas[editar]
La penicilina dio comienzo a la era de los antibióticos, trayendo la cura de enfermedades comunes como la tuberculosis y la sífilis, haciendo que las intervenciones quirúrgicas fuesen menos arriesgadas y que la medicina de las infecciones fuese más confiable. Antes de los años 1930, personas adultas y niños morían en grandes cantidades por infecciones bacterianas como la neumonía y la fiebre reumática, desde los más pobres hasta los más ricos. En 1924, el hijo del presidente estadounidense Calvin Coolidge, un joven de 16 años de edad, murió por una septicemia originada en una herida de un pie por sus zapatillas de tenis.17 Aunque la prevención, las vacunas y otras medidas epidemiológicas trajeron la erradicación de ciertas enfermedades, la penicilina por sí sola ha salvado más vidas desde su introducción al mercado que ningún otro medicamento.65 Pero el mal uso de la penicilina ha traído, a su vez, resistencias en organismos fulminantes como Staphylococcus y Clostridium. Fleming, durante su discurso de aceptación del premio Nobel por su descubrimiento, dijo:
El tiempo vendrá cuando la penicilina pueda ser comprada por cualquiera en las tiendas. Y luego está el peligro de que el hombre ignorante use a menudo infradosis y, al exponer a sus microbios a cantidades no-letales de la droga, los vuelva resistentes.
Alexander Fleming.65
Farmacología[editar]
Dado que la mayoría de las penicilinas son destruidas por el jugo gástrico, la absorción por vía oral no es buena y por ello deben ser administradas parenteralmente. La penicilina se absorbe rápidamente tanto con la administración intramuscular como subcutánea. Los niveles sanguíneos seguidos de la administración parenteral son elevados pero transitorios. La toxicidad oral (LD50), es decir, la dosis letal en el 50 % de los animales de experimentación es aproximadamente 8900 mg/kg.66 Ciertas reacciones neurológicas se observan, incluyendo convulsiones, si la penicilina y otros β-lactámicos llegan a alcanzar concentraciones muy elevadas en el líquido cefalorraquídeo.41
La unión a proteínas séricas es variable en un rango que va desde el 15 % para las aminopenicilinas hasta el 97 % para la dicloxacilina. La vida media sérica es corta, aproximadamente 30 minutos para penicilina G y 60 minutos para penicilinas de amplio espectro.
La penicilina es eliminada por los riñones, de modo que una disminución o inhibición de la secreción tubular renal puede aumentar la concentración y el efecto terapéutico de la penicilina. Las dosis deben ser reconsideradas en pacientes con insuficiencia renal o que estén tomando otros fármacos como el probenecid,58 usado en pacientes que requieran concentraciones particularmente elevadas de penicilina.41
Las penicilinas no son metabolizadas o solo mínimamente metabolizadas y excretadas principalmente por los riñones a través de la filtración glomerular (10 %) y la secreción tubular (90 %). El probenecid bloquea la excreción renal y así causa un aumento de los niveles séricos de penicilina. Estos antibióticos (excepto las penicilinas penicilinasa resistentes) pueden ser eliminados del organismo por diálisis peritoneal y hemodiálisis. En pacientes con disfunción renal severa son necesarios ajustes en las dosis diarias para prevenir niveles excesivos y toxicidad consecuente.
Unidades[editar]
La acción de la penicilina G se definió inicialmente en unidades. Por ejemplo, la penicilina G sódica cristalina contiene aproximadamente 1600 unidades/mg (1 unidad = 0,6 µg; 1 millón de unidades de penicilina = 0,6 g). Las penicilinas semi-sintéticas se prescriben por peso en vez de hacerlo por unidades. La concentración inhibitoria mínima (CIM) de cualquier penicilina (o cualquier otro antimicrobiano), por lo general viene dado en g/ml. La mayoría de las penicilinas se dispensan en forma de sales de sodio o potasio del ácido libre. La penicilina G potásica contiene aproximadamente 1,7 mEq de K+ por cada millón de unidades de penicilina. Las sales de penicilina en forma cristalina seca se conservan estables por períodos largos de tiempo, llegando varios años a 4 °C. Las soluciones preparadas pierden su actividad con rapidez, unas 24 horas a 20 °C, por lo que cada solución debe ser preparada justo antes de su administración.40
Reacciones adversas[editar]
Se han descrito diversos tipos de reacciones, algunas de ellas fatales, en personas a las que se administró penicilina. La penicilina y sus derivados son las causas más frecuentes de reacciones dependientes de la inmunoglobulina E (IgE), aunque pueden también producirse inmunoglobulinas G y M.58 Las reacciones adversas a la penicilina ocurren en ≤1 % de los pacientes que toman el antibiótico. Aunque la alergia a la penicilina es la forma más frecuente de alergia reportada en medicina, menos del 20 % de las personas que creen ser alérgicos verdaderamente lo son.67 Entre las reacciones adversas más comunes están:
Reacción de hipersensibilidad o alérgica: es el efecto adverso más importante. Puede ser inmediata (2-30 minutos), acelerada (1-72 horas) o tardía (más de 72 horas). La gravedad es variable: desde simples erupciones cutáneas pasajeras (urticaria o angioedema), hasta shock anafiláctico, el cual ocurre en el 0,2 % y provoca la muerte en el 0,001 % de los casos.41 Al revisar los historiales clínicas, se puede establecer que existe hasta un 50 % de la población alérgica a la penicilina. Muchos de estos eventos son crisis vasovagales provocadas por el intenso dolor de la inyección intramuscular.
Trastornos gastrointestinales: el más frecuente es la diarrea, ya que la penicilina elimina la flora intestinal. Puede también provocar náuseas y vómitos.
Infecciones adicionales, incluyendo candidiasis.
Entre los efectos secundarios menos frecuentes, que se dan en el 0,1-1 % de los pacientes, están:
Aumento reversible de enzimas aminotransferasas, que suele pasar inadvertido.
Trastornos hematológicos: anemia, neutropenia y trombocitopenia. La penicilina puede estimular la producción de anticuerpos, principalmente IgG e IgM, los cuales causan lesiones en las células sanguíneas, ocasionando estos trastornos hematológicos.58
Hipopotasemia: poco frecuente.
Nefritis intersticial.
Encefalopatía: que cursa con mioclonias, convulsiones crónicas y tónico-clónicas de extremidades que pueden acompañarse de somnolencia, estupor y coma. La encefalopatía es más frecuente en pacientes con insuficiencia renal.41
El dolor y la inflamación del sitio de inyección son también frecuentes en las penicilinas administradas por vía parenteral, como la benzilpenicilina. Ocasionalmente se ha reportado que las penicilinas, así como otros fármacos, pueden causar necrósis epidérmica tóxica, pénfigo y eritema multiforme.
Los pacientes con fibrosis quística tienen mayor probabilidad de sufrir reacciones adversas a la penicilina y sus derivados.68 La penicilina no ha causado defectos de nacimiento por lo que con frecuencia es recetado a mujeres embarazadas. Las penicilinas pueden cruzar la barrera placentaria y solo deben ser usadas en el embarazo cuando sea absolutamente necesario y recomendado bajo supervisión médica. La penicilina puede ser tomada durante la lactancia, sin embargo, pequeñas cantidades del antibiótico pueden pasar a la leche materna y causar en el lactante indigestión, diarrea o reacciones alérgicas.68
Alergia a la penicilina[editar]
Las reacciones alérgicas informadas con cualquiera de los antibióticos β-lactámicos pueden ascender hasta un 10 % de los pacientes que reciben estos agentes. Sin embargo, solo el 10 % de estos informes corresponden a reacciones alergias a estos fármacos.3 Se ha aceptado en el pasado que puede haber hasta un 10 % de sensibilidad cruzada entre los diferentes derivados de la penicilina, es decir, que un 10 % de pacientes hipersensibles a uno de los medicamentos, como las cefalosporinas y carbapenemas, también lo será para los otros derivados de la penicilina, por razón de que todas tienen un anillo β-lactámico.69 70 Sin embargo, hallazgos recientes han mostrado que no hay un aumento de alergias cruzadas desde las cefalosporinas de segunda generación hasta las más recientes.71 72 Ciertas investigaciones actuales han demostrado que el principal factor en la determinación de reacciones inmunitarias es la similitud que hay entre las cadenas laterales de las cefalosporinas de primera generación y las penicilinas y no necesariamente entre la estructura del β-lactámico común entre ellos.73 En una revisión de historias clínicas, se encontró que la alergia a la penicilina es más frecuente en las mujeres que en los hombres.74
La vía de administración más frecuente con la cual aparecen estas reacciones alérgicas es la endovenosa, y raramente ocurre cuando se administra por vía oral. Para desarrollar la reacción se necesita de una exposición inicial al medicamento o sus determinantes antigénicos, por ejemplo, al ingerir leche o productos de animales tratados con penicilina, a través de la leche materna o por el contacto con la droga al administrarla al individuo.36
La mayoría de los pacientes expuestos a la penicilina desarrollan anticuerpos frente a este antibiótico y, sin embargo, no manifiestan reacciones al exponerse nuevamente a ella.58 Quienes desarrollan reacciones alérgicas asociadas a la administración de penicilinas muestran síntomas que varían ampliamente: anafilaxia, enfermedad del sueño, anemia hemolítica, enfermedades renales, angioedema, urticaria, vasculitis entre otros, y pueden llegar a ocasionar la muerte.36
Las pruebas cutáneas, como el Pre-pen y el Kremers-Urban, se diseñaron para pacientes en los que se sospechan reacciones alérgicas a la penicilina mediadas por IgE y que se anticipa su tratamiento, como en el caso de pacientes con endocarditis o mujeres embarazadas con sífilis. Cerca del 25 % de los pacientes con antecedentes de alergia a la penicilina tendrán una prueba cutánea positiva, mientras que un 6 % (del 3 al 10 %) con antecedentes negativos presenta una respuesta cutánea positiva.58 Otras pruebas, como la radioalergoadsorción o pruebas in vitro, no ofrecen ventajas sobre las pruebas cutáneas correctamente realizadas.
Como es de esperar, un gran número de pacientes (de un 50 a un 100 %) con una prueba cutánea positiva, producen reacciones alérgicas a la penicilina de ser administrado el antibiótico, mientras que un 0,5 % de los pacientes con pruebas cutáneas negativas reaccionan al fármaco, la cual tiende a ser una reacción leve o tardía, después de la administración de penicilina. Después de varios años, hasta un 80 % de los pacientes pierde la sensibilidad anafiláctica y los anticuerpos IgE.58
Interacciones medicamentosas[editar]
La penicilina no debe ser tomada conjuntamente con otros antibióticos como el cloranfenicol, la eritromicina, la tetraciclina o la neomicina, entre otros, porque se reduce su efectividad.75 Se sabe que la penicilina disminuye el efecto de las pastillas anticonceptivas y que las reacciones secundarias ocurren con más frecuencia al combinar la penicilina con los beta bloqueantes. También interfiere con la absorción del atenolol, y a grandes dosis, la penicilina potencia el efecto de los medicamentos anticoagulantes.
No se recomienda tomar refrescos carbonatados o ciertos jugos naturales, pues el ambiente ácido de estas bebidas puede destruir la droga. Por ello, las penicilinas orales deben ser ingeridos en ayunas o unas 2 horas después de comer. La amoxicilina puede ser administrada con la comida.
Resistencia a la penicilina[editar]
Cerca del 25 % de las cepas de Streptococcus pneumoniae aisladas en pacientes con otitis media son resistentes a la penicilina y a la amoxicilina, y comparten esa resistencia con cerca del 33 % de cepas de Haemophilus influenzae en estos pacientes.58 De acuerdo a publicaciones recientes, el porcentaje de aislamientos de S. pneumoniae con susceptibilidad a penicilina disminuida en Chile y España,76 por ejemplo, es de alrededor de un 30 % en los pacientes menores de 5 años.77 Por lo general, las infecciones causadas por estas cepas resistentes se asocian a limitaciones terapéuticas y un desenlace desfavorable de la infección.78
El uso, muchas veces indiscriminado, de estos fármacos ante el temor de una complicación y/o riesgo de muerte del paciente, casi siempre sin el amparo del conocimiento del agente causal de la infección y su comportamiento ante el tratamiento aplicado, provoca tal efecto sobre los microorganismos que los lleva a desarrollar una resistencia mayor. Este serio problema ha inducido a varios países a instalar políticas de uso racional de los antibióticos, basadas en el conocimiento de los parámetros farmacodinámicos y microbiológicos de estos fármacos y respaldadas por la realización de pruebas de laboratorio que permitan una verdadera evaluación de la infección y del tratamiento que debe ser aplicado.79
Después de la aparición de serias resistencias a la penicilina, se desarrollaron derivados con mayor espectro de acción, así como penicilinas resistentes a la β-lactamasa, como es el caso de la flucloxacilina, la dicloxacilina y la meticilina. Sin embargo, estos fármacos son aún ineficaces contra las cepas del estafilococo resistente a la meticilina, si bien existen otros fármacos eficaces para tratar su infección.80
En general, la resistencia a antibióticos β-lactámicos en cualquier bacteria se fundamenta en la interacción entre los factores siguientes:81 82
Permeabilidad de la pared bacteriana al antibiótico.
Presencia, espectro de acción y afinidad de las proteínas de unión a penicilina o PBPs (del inglés penicillin binding proteins).83
Existencia y eficacia de los mecanismos de excreción del compuesto.
Afinidad del antibiótico por el sitio activo de la PBP.
Algunos de estos factores están relacionados con la ubicación taxonómica del microorganismo: por ejemplo, la estructura de la pared de las bacterias Gram negativas dificulta la permeabilidad del antibiótico y, por ello, disminuye su eficacia.
Cabe destacar la existencia de enzimas que hidrolizan elementos de las penicilinas disminuyendo su actividad: son las llamadas β-lactamasas. En las bacterias Gram negativas, la enzima se encuentra en el periplasma, justo entre las membranas interna y externa, mientras que las Gram positivas secretan la β-lactamasa al medio que las rodea. La enzima puede ser codificada por genes del cromosoma bacteriano o por plásmidos. Uno de los genes bacterianos asociado a la producción de β-lactamasas es el blaZ, el cual puede ser localizado en un plásmido. La expresión de este gen viene determinada por dos genes reguladores blaR1 y blaI. Ciertas evidencias hacen suponer que la exposición a la penicilina provoca que la bacteria active al gen blaR1, cuyo producto actúa como una proteasa activando al gen blaI y permitiendo la síntesis de la enzima por blaZ.84
La β-lactamasa tiene mayor afinidad por el antibiótico que el que este tiene por su diana. Ciertos antibióticos, como la ceftriaxona y la cefatazidima, son estables en presencia de β-lactamasas codificadas y producidas desde plásmidos. Sin embargo, las codificadas y producidas desde cromosomas, como en el caso de Enterobacter, son enzimas que hidrolizan prácticamente a todas las penicilinas y cefalosporinas.58
Se ha determinado que la mala evolución de ciertas enfermedades causadas por organismos con susceptibilidad disminuida a la penicilina, como la neumonía neumocócica invasiva en niños, tiende a ser independiente de la susceptibilidad a la penicilina del microorganismo.85 Sin embargo, como la resistencia a la penicilina y otros antibióticos continúa en aumento, se ha estimulado el interés en nuevos medicamentos con propiedades bactericidas en contra de organismos resistentes, drogas como las quinolonas, cuyo blanco son las enzimas ADN girasa de bacterias Gram negativas y topoisomerasa tipo IV de bacterias Gram positivas.86
Producción biotecnológica[editar]

Vitrina de la Farmacia Märkische en Alemania, 1954 anunciando la producción de penicilina.
La producción industrial de penicilina emergió y floreció como industria a causa de la Segunda Guerra Mundial, en especial por la cantidad de empleos disponibles en los Estados Unidos. En julio de 1943, se presentó un plan para distribuirla en masa a las tropas en el frente de batalla de Europa y, gracias a ello, se produjeron 425 millones de unidades. Por entonces, el hongo se hacía crecer sobre una capa delgada de cultivo puesto en bandejas o botellas. Para mejorar los requerimientos de espacio y de los materiales se desarrolló un nuevo método comercial de fermentación sumergida en calderos de 20.000 a más de 100.000 litros de capacidad, haciendo que se redujesen los precios de coste y aumentase la producción. Como consecuencia, en 1945, se produjeron más de 646 billones de unidades.87 Por tanto, lo que era un compuesto caro y difícil de aislar es hoy una «commodity química», es decir, un compuesto químicamente puro que se compra y vende a gran escala en un mercado competitivo.88
El desarrollo biotecnológico de cepas superproductoras ha sido otro campo de investigación de gran interés. El aislado original de Fleming producía alrededor de 2 u/mL (unidades internacionales por mL). Los procesos empleados a finales de la década de los 80 generaban 85.000 u/mL. El desarrollo de las cepas se ha basado en:2 89
el análisis de numerosos aislados de especies y cepas distintas;
su mutagénesis mediante rayos X, metilbiscloroetilamina, nitrosoguanidina, radiación UV de onda corta y otros;
la recombinación mediante ciclos parasexuales en P. chrysogenum;
la fusión de protoplastos;
técnicas moleculares de barajado de ADN, que permiten realizar evolución dirigida de fragmentos de ADN mediante PCR.
Biosíntesis y semisíntesis[editar]

Ruta de biosíntesis de la penicilina.
La estrategia de producción industrial de penicilina está ligada al tipo de penicilina a sintetizar. Básicamente, esta variedad reside en la sustitución del grupo acilo de la posición 6 en el ácido 6-aminopenicilánico. Cuando la fermentaciónN 3 se produce sin añadir ningún precursor se producen las penicilinas naturales. De entre ellas, solo la penicilina G es útil terapéuticamente y por tanto es el compuesto a purificar. Por otra parte, de añadir otros precursores para la cadena lateral, el control de la reacción mejora y es posible producir el compuesto deseado con una alta especificidad. Esta estrategia da lugar a las penicilinas biosintéticas, como la penicilina V o la penicilina O (en pequeñas cantidades). La aproximación al problema más empleada, no obstante, pasa por la modificación química del compuesto obtenido mediante fermentación. De este modo es posible obtener una gran diversidad de penicilinas semisintéticas.2
La generación de penicilinas semisintéticas requiere la producción, mediante fermentación, de penicilina G (en algunos casos penicilina V), compuesto que se convierte en ácido 6-aminopenicilánico mediante una transformación química, o, más frecuentemente, enzimática. Este compuesto es luego modificado mediante la enzima penicilina acilasa de modo que se añada la cadena lateral deseada a la posición 6, lo que da lugar a la penicilina semisintética final. De hecho, el 38 % de las penicilinas producidas comercialmente se emplean en medicina humana, el 12 % en veterinaria y el 43 % como precursores para el diseño de penicilinas semisintéticas.2
Regulación de la síntesis[editar]
El anillo tiazolidínico de la β-lactama se genera mediante la unión de los aminoácidos L-cisteína, L-valina y ácido α-aminoadípico. Este último, aminoácido no proteico, se une al residuo de cisteína mediante una síntesis de péptidos no ribosomal, a cuyo producto se fusiona una valina mediante una epimerización, reacción que da lugar a un tripéptido. Este tripéptido se cicla mediante un proceso aún no descrito dando lugar al primer producto aislable, la isopenicilina N. La acción de la penicilina transacetilasa, que sustituye la cadena de α-aminoadípico en el C6 por una molécula de ácido fenilacético activada, produce la bencilpenicilina.90
La producción de penicilina es un área que requiere la colaboración de científicos e ingenieros para la efectiva producción de cantidades industriales del antibiótico. La penicilina es un metabolito secundario del hongo Penicillium, es decir, el hongo no produce el antibiótico cuando crece bajo condiciones normales, solo cuando su crecimiento se encuentra inhibido por verse sometido a condiciones de estrés. Otros factores inhiben la producción de penicilina, incluyendo su misma ruta de producción. Por ejemplo, la lisina inhibe su síntesis debido a que inhibe a la homocitrato sintasa, enzima implicada en la síntesis de ácido α-aminoadípico. No obstante, la retroinhibición por lisina no parece ser un factor limitante en la producción industrial del compuesto. Otros elementos reguladores son: la concentración de fosfato, de glucosa y de ion amonio.2
Las células de Penicillium son crecidas usando una técnica conocida como «fed-batch» (cultivo de lote nutrido), en el que se ven continuamente sujetas a condiciones de estrés y, por ende, producen penicilina en abundancia. Las fuentes de carbono disponibles son también importantes porque la glucosa inhibe a la penicilina mientras que la lactosa no. El valor del pH, los niveles de nitrógeno, fosfato y oxígeno son también críticos en los lotes de producción y deben controlarse automáticamente.

Ha recibido 1780 puntos

Vótalo:

INTERNET (1969/1974)

8. INTERNET (1969/1974)

https://www.youtube.com/watch?v=i4RE6dBAjH4

El internet (o, también, la internet)3 es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen como una red lógica única de alcance mundial. Sus orígenes se remontan... Ver mas
El internet (o, también, la internet)3 es un conjunto descentralizado de redes de comunicación interconectadas que utilizan la familia de protocolos TCP/IP, lo cual garantiza que las redes físicas heterogéneas que la componen como una red lógica única de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California (Estados Unidos).
Uno de los servicios que más éxito ha tenido en internet ha sido la World Wide Web (WWW o la Web), hasta tal punto que es habitual la confusión entre ambos términos. La WWW es un conjunto de protocolos que permite, de forma sencilla, la consulta remota de archivos de hipertexto. Esta fue un desarrollo posterior (1990) y utiliza internet como medio de transmisión.4
Existen, por tanto, muchos otros servicios y protocolos en internet, aparte de la Web: el envío de correo electrónico (SMTP), la transmisión de archivos (FTP y P2P), las conversaciones en línea (IRC), la mensajería instantánea y presencia, la transmisión de contenido y comunicación multimedia —telefonía (VoIP), televisión (IPTV)—, los boletines electrónicos (NNTP), el acceso remoto a otros dispositivos (SSH y Telnet) o los juegos en línea.4 5 6
Índice [ocultar]
1 Origen
2 Tecnología de internet
2.1 Enrutamiento y capas de servicio
2.2 Acceso a internet
2.3 Nombres de dominio
3 Usos modernos
4 Impacto social
4.1 Filantropía
4.2 Ocio
4.3 Internet y su evolución
4.4 Efectos de internet en el cerebro
4.5 Fuente de información
4.6 Buscadores
4.6.1 Índices o directorios temáticos
4.6.2 Motores de búsqueda
4.6.3 Metabuscadores
4.7 Trabajo
4.8 Publicidad
4.9 Censura
4.10 Internet en obras de ficción
5 Tamaño
6 Usuarios
7 Véase también
8 Referencias
9 Bibliografía
10 Enlaces externos
Origen
Artículo principal: Historia de Internet

Esquema lógico de ARPANet.
Sus orígenes se remontan a la década de 1960, dentro de ARPA (hoy DARPA, las siglas en inglés de la Defense Advanced Research Projects Agency), como respuesta a la necesidad de esta organización de buscar mejores maneras de usar los computadores de ese entonces, pero enfrentados al problema de que los principales investigadores y laboratorios deseaban tener sus propios computadores, lo que no solo era más costoso, sino que provocaba una duplicación de esfuerzos y recursos. El verdadero origen de Internet 7 nace con ARPANet (Advanced Research Projects Agency Network o Red de la Agencia para los Proyectos de Investigación Avanzada de los Estados Unidos), que nos legó el trazado de una red inicial de comunicaciones de alta velocidad a la cual fueron integrándose otras instituciones gubernamentales y redes académicas durante los años 70.8 9 10
Investigadores, científicos, profesores y estudiantes se beneficiaron de la comunicación con otras instituciones y colegas en su rama, así como de la posibilidad de consultar la información disponible en otros centros académicos y de investigación. De igual manera, disfrutaron de la nueva habilidad para publicar y hacer disponible a otros la información generada en sus actividades.11 12
En el mes de julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida.13 14 15
1969: La primera red interconectada nace el 21 de noviembre de 1969, cuando se crea el primer enlace entre las universidades de UCLA y Stanford por medio de la línea telefónica conmutada, y gracias a los trabajos y estudios anteriores de varios científicos y organizaciones desde 1959 (ver: Arpanet). El mito de que ARPANET, la primera red, se construyó simplemente para sobrevivir a ataques nucleares sigue siendo muy popular. Sin embargo, este no fue el único motivo. Si bien es cierto que ARPANET fue diseñada para sobrevivir a fallos en la red, la verdadera razón para ello era que los nodos de conmutación eran poco fiables, tal y como se atestigua en la siguiente cita:
A raíz de un estudio de RAND, se extendió el falso rumor de que ARPANET fue diseñada para resistir un ataque nuclear. Esto nunca fue cierto, solamente un estudio de RAND, no relacionado con ARPANET, consideraba la guerra nuclear en la transmisión segura de comunicaciones de voz. Sin embargo, trabajos posteriores enfatizaron la robustez y capacidad de supervivencia de grandes porciones de las redes subyacentes. (Internet Society, A Brief History of the Internet)
1972: Se realizó la Primera demostración pública de ARPANET, una nueva red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de esta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.16
1983: El 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.17 18
1986: La NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.19 20
1989: Con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.21

En 1990 el CERN crea el código HTML y con él el primer cliente World Wide Web. En la imagen el código HTML con sintaxis coloreada.
En el CERN de Ginebra, un grupo de físicos encabezado por Tim Berners-Lee creó el lenguaje HTML, basado en el SGML.

1990 : el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.22
A inicios de la década de 1990, con la introducción de nuevas facilidades de interconexión y herramientas gráficas simples para el uso de la red, se inició el auge que actualmente le conocemos al Internet. Este crecimiento masivo trajo consigo el surgimiento de un nuevo perfil de usuarios, en su mayoría de personas comunes no ligadas a los sectores académicos, científicos y gubernamentales.17
Esto ponía en cuestionamiento la subvención del gobierno estadounidense al sostenimiento y la administración de la red, así como la prohibición existente al uso comercial del Internet. Los hechos se sucedieron rápidamente y para 1993 ya se había levantado la prohibición al uso comercial del Internet y definido la transición hacia un modelo de administración no gubernamental que permitiese, a su vez, la integración de redes y proveedores de acceso privados.23 El 30 de abril de 1993 la Web entró al dominio público, ya que el CERN entregó las tecnologías de forma gratuita para que cualquiera pudiera utilizarlas.24 25
2006: El 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2000 millones.26
El primer dato que nos llama la atención es el incremento en el número de usuarios que utilizan Internet. En estos diez años se ha pasado de 559 millones a 2270 millones de personas que navegan en todo mundo, lo que equivale al 33 % total de la población, una cifra muy superior al 9,1 % en el 2002.
El resultado de todo esto es lo que experimentamos hoy en día: la transformación de una enorme red de comunicaciones para uso gubernamental, planificada y construida con fondos estatales, que ha evolucionado en una miríada de redes privadas interconectadas entre sí, a la que cualquier persona puede acceder. Actualmente la red experimenta cada día la integración de nuevas redes y usuarios, extendiendo su amplitud y dominio, al tiempo que surgen nuevos mercados, tecnologías, instituciones y empresas que aprovechan este nuevo medio, cuyo potencial apenas comenzamos a descubrir.27
Una red de computadoras es un conjunto de máquinas que se comunican a través de algún medio (cable coaxial, fibra óptica, radiofrecuencia, líneas telefónicas, etc.) con el objeto de compartir recursos.
De esta manera, Internet sirve de enlace entre redes más pequeñas y permite ampliar su cobertura al hacerlas parte de una "red global". Esta red global tiene la característica de que utiliza un lenguaje común que garantiza la intercomunicación de los diferentes participantes; este lenguaje común o protocolo (un protocolo es el lenguaje que utilizan las computadoras al compartir recursos) se conoce como TCP/IP.
Así pues, Internet es la "red de redes" que utiliza TCP/IP como su protocolo de comunicación.
Internet es un acrónimo de INTERconected NETworks (Redes interconectadas).[cita requerida] Para otros, Internet es un acrónimo del inglés INTERnational NET, que traducido al español sería Red Mundial.[cita requerida]
Tecnología de internet
Enrutamiento y capas de servicio

Gráfica del encapsulamiento en paquetes de datos.

Paquetes de Internet de varios provedores.
Los Proveedores de Servicios de Internet (ISP) conectan a clientes, quienes representan la parte más baja en la jerarquía de enrutamiento, con otros clientes de otros ISP a través de capas de red más altas o del mismo nivel. En lo alto de la jerarquía de enrutamiento están las redes de capa 1, grandes compañías de telecomunicaciones que intercambian tráfico directamente con otras a través de acuerdos de interconexión. Redes de capa 2 y de más bajo nivel compran tráfico de Internet de otros proveedores para alcanzar al menos algunas partes del Internet mundial, aunque también pueden participar en la interconexión. Un ISP puede usar un único proveedor para la conectividad o implementar multihoming para conseguir redundancia y balanceo de carga. Los puntos neutros tienen las cargas más importantes de tráfico y tienen conexiones físicas a múltiples ISP.
Los ordenadores y routers utilizan las tablas de enrutamiento para dirigir los paquetes IP entre las máquinas conectadas localmente. Las tablas pueden ser construidas de forma manual o automáticamente a través de DHCP para un equipo individual o un protocolo de enrutamiento para los routers de sí mismos. En un solo homed situaciones, una ruta por defecto por lo general apunta hacia "arriba" hacia un ISP proporciona el transporte. De más alto nivel de los ISP utilizan el Border Gateway Protocol para solucionar rutas de acceso a un determinado rango de direcciones IP a través de las complejas conexiones de la Internet global. [cita requerida]
Las instituciones académicas, las grandes empresas, gobiernos y otras organizaciones pueden realizar el mismo papel que los ISP, con la participación en el intercambio de tráfico y tránsito de la compra en nombre de sus redes internas de las computadoras individuales. Las redes de investigación tienden a interconectarse en subredes grandes como GEANT, GLORIAD, Internet2, y de investigación nacional del Reino Unido y la red de la educación, Janet. Estos a su vez se construyen alrededor de las redes más pequeñas (véase la lista de organizaciones académicas de redes informáticas).[cita requerida]
No todas las redes de ordenadores están conectados a Internet. Por ejemplo, algunos clasificados los sitios web de los Estados sólo son accesibles desde redes seguras independientes.[cita requerida]
Acceso a internet
Artículo principal: Conexión a Internet

Esquema con las tecnologías relacionadas al Internet actual.
Los métodos comunes de acceso a Internet en los hogares incluyen dial-up, banda ancha fija (a través de cable coaxial, cables de fibra óptica o cobre),21 Wi-Fi, televisión vía satélite y teléfonos celulares con tecnología 3G/4G. Los lugares públicos de uso del Internet incluyen bibliotecas y cafés de internet, donde los ordenadores con conexión a Internet están disponibles. También hay puntos de acceso a Internet en muchos lugares públicos, como salas de los aeropuertos y cafeterías, en algunos casos sólo para usos de corta duración. Se utilizan varios términos, como "kiosco de Internet", "terminal de acceso público", y "teléfonos públicos Web". Muchos hoteles ahora también tienen terminales de uso público, las cuales por lo general basados en honorarios. Estos terminales son muy visitada para el uso de varios clientes, como reserva de entradas, depósito bancario, pago en línea, etc. Wi-Fi ofrece acceso inalámbrico a las redes informáticas, y por lo tanto, puede hacerlo a la propia Internet. Hotspots les reconocen ese derecho incluye Wi-Fi de los cafés, donde los aspirantes a ser los usuarios necesitan para llevar a sus propios dispositivos inalámbricos, tales como un ordenador portátil o PDA. Estos servicios pueden ser gratis para todos, gratuita para los clientes solamente, o de pago. Un punto de acceso no tiene por qué estar limitado a un lugar confinado. Un campus entero o parque, o incluso una ciudad entera puede ser activado.28 29
Los esfuerzos de base han dado lugar a redes inalámbricas comunitarias. Los servicios comerciales de Wi-Fi cubren grandes áreas de la ciudad están en su lugar en Londres, Viena, Toronto, San Francisco, Filadelfia, Chicago y Pittsburgh. El Internet se puede acceder desde lugares tales como un banco del parque. Aparte de Wi-Fi, se han realizado experimentos con propiedad de las redes móviles inalámbricas como Ricochet, varios servicios de alta velocidad de datos a través de redes de telefonía celular, y servicios inalámbricos fijos. De gama alta los teléfonos móviles como teléfonos inteligentes en general, cuentan con acceso a Internet a través de la red telefónica. Navegadores web como Opera están disponibles en estos teléfonos avanzados, que también puede ejecutar una amplia variedad de software de Internet. Más teléfonos móviles con acceso a Internet que los PC, aunque esto no es tan ampliamente utilizado. El proveedor de acceso a Internet y la matriz del protocolo se diferencia de los métodos utilizados para obtener en línea.
Un apagón de Internet o interrupción puede ser causado por interrupciones locales de señalización. Las interrupciones de cables de comunicaciones submarinos pueden causar apagones o desaceleraciones a grandes áreas, tales como en la interrupción submarino 2008 por cable. Los países menos desarrollados son más vulnerables debido a un pequeño número de enlaces de alta capacidad. Cables de tierra también son vulnerables, como en 2011, cuando una mujer cavando en busca de chatarra de metal cortó la mayor parte de conectividad para el país de Armenia.30 Internet apagones que afectan a los países casi todo se puede lograr por los gobiernos como una forma de censura en Internet, como en el bloqueo de Internet en Egipto, en el que aproximadamente el 93 % de las redes no tenían acceso en 2011 en un intento por detener la movilización de protestas contra el gobierno.
En un estudio norteamericano en el año 2005, el porcentaje de hombres que utilizan Internet era muy ligeramente por encima del porcentaje de las mujeres, aunque esta diferencia se invierte en los menores de 30. Los hombres se conectan más a menudo, pasan más tiempo en línea, y son más propensos a ser usuarios de banda ancha, mientras que las mujeres tienden a hacer mayor uso de las oportunidades de comunicación (como el correo electrónico). Los hombres eran más propensos a utilizar el Internet para pagar sus cuentas, participar en las subastas, y para la recreación, tales como la descarga de música y vídeos. Hombres y mujeres tenían las mismas probabilidades de utilizar Internet para hacer compras y la banca. Los estudios más recientes indican que en 2008, las mujeres superaban en número a los hombres de manera significativa en la mayoría de los sitios de redes sociales, como Facebook y Myspace, aunque las relaciones variaban con la edad. Además, las mujeres vieron más contenido de streaming, mientras que los hombres descargaron más En cuanto a los blogs, los hombres eran más propensos al blog en el primer lugar; entre los que el blog, los hombres eran más propensos a tener un blog profesional, mientras que las mujeres eran más propensas a tener un blog personal.
Es de gran importancia resaltar que existe una diferencia entre WEB y el INTERNET ya que el internet es una red masiva de redes, una infraestructura de red que conecta a millones de computadores en todo el mundo, formando una red en la que cualquier computadora se pueda comunicar con cualquier otro equipo, siempre y cuando ambos están conectados a internet. En cambio la web es una forma de acceder a la información sobre el medio de la internet, la web utiliza el protocolo http el cual es sólo uno de los idiomas que se hablan a través de internet para transmitir datos.
Nombres de dominio
Artículo principal: Dominio de Internet
La Corporación de Internet para los Nombres y los Números Asignados (ICANN) es la autoridad que coordina la asignación de identificadores únicos en Internet, incluyendo nombres de dominio, direcciones de Protocolos de Internet, números del puerto del protocolo y de parámetros. Un nombre global unificado (es decir, un sistema de nombres exclusivos para sostener cada dominio) es esencial para que Internet funcione.
El ICANN tiene su sede en California, supervisado por una Junta Directiva Internacional con comunidades técnicas, comerciales, académicas y ONG. El gobierno de los Estados Unidos continúa teniendo un papel privilegiado en cambios aprobados en el Domain Name System. Como Internet es una red distribuida que abarca muchas redes voluntariamente interconectadas, Internet, como tal, no tiene ningún cuerpo que lo gobierne.
Usos modernos
El Internet moderno permite una mayor flexibilidad en las horas de trabajo y la ubicación. Con el Internet se puede acceder a casi cualquier lugar, a través de dispositivos móviles de Internet. Los teléfonos móviles, tarjetas de datos, consolas de juegos portátiles y routers celulares permiten a los usuarios conectarse a Internet de forma inalámbrica. Dentro de las limitaciones impuestas por las pantallas pequeñas y otras instalaciones limitadas de estos dispositivos de bolsillo, los servicios de Internet, incluyendo correo electrónico y la web, pueden estar disponibles al público en general. Los proveedores de internet puede restringir los servicios que ofrece y las cargas de datos móviles puede ser significativamente mayor que otros métodos de acceso.
Se puede encontrar material didáctico a todos los niveles, desde preescolar hasta post-doctoral está disponible en sitios web. Los ejemplos van desde CBeebies, a través de la escuela y secundaria guías de revisión, universidades virtuales, al acceso a la gama alta de literatura académica a través de la talla de Google Académico. Para la educación a distancia, ayuda con las tareas y otras asignaciones, el auto-aprendizaje guiado, entreteniendo el tiempo libre, o simplemente buscar más información sobre un hecho interesante, nunca ha sido más fácil para la gente a acceder a la información educativa en cualquier nivel, desde cualquier lugar. El Internet en general es un importante facilitador de la educación tanto formal como informal.31
El bajo costo y el intercambio casi instantáneo de las ideas, conocimientos y habilidades han hecho el trabajo colaborativo dramáticamente más fácil, con la ayuda del software de colaboración. De chat, ya sea en forma de una sala de chat IRC o del canal, a través de un sistema de mensajería instantánea, o un sitio web de redes sociales, permite a los colegas a mantenerse en contacto de una manera muy conveniente cuando se trabaja en sus computadoras durante el día. Los mensajes pueden ser intercambiados de forma más rápida y cómodamente a través del correo electrónico. Estos sistemas pueden permitir que los archivos que se intercambian, dibujos e imágenes para ser compartidas, o el contacto de voz y vídeo entre los miembros del equipo.
Sistemas de gestión de contenido permiten la colaboración a los equipos trabajar en conjuntos de documentos compartidos al mismo tiempo, sin destruir accidentalmente el trabajo del otro. Los equipos de negocio y el proyecto pueden compartir calendarios, así como documentos y otra información. Esta colaboración se produce en una amplia variedad de áreas, incluyendo la investigación científica, desarrollo de software, planificación de la conferencia, el activismo político y la escritura creativa. La colaboración social y político es cada vez más generalizada, como acceso a Internet y difusión conocimientos de informática.
La Internet permite a los usuarios de computadoras acceder remotamente a otros equipos y almacenes de información fácilmente, donde quiera que estén. Pueden hacer esto con o sin la seguridad informática, es decir, la autenticación y de cifrado, dependiendo de los requerimientos. Esto es alentador, nuevas formas de trabajo, la colaboración y la información en muchas industrias. Un contador sentado en su casa puede auditar los libros de una empresa con sede en otro país. Estas cuentas podrían haber sido creado por trabajo desde casa tenedores de libros, en otros lugares remotos, con base en la información enviada por correo electrónico a las oficinas de todo el mundo. Algunas de estas cosas eran posibles antes del uso generalizado de Internet, pero el costo de líneas privadas arrendadas se han hecho muchos de ellos no factibles en la práctica. Un empleado de oficina lejos de su escritorio, tal vez al otro lado del mundo en un viaje de negocios o de placer, pueden acceder a sus correos electrónicos, acceder a sus datos usando la computación en nube, o abrir una sesión de escritorio remoto a su PC de la oficina usando un seguro virtual Private Network (VPN) en Internet. Esto puede dar al trabajador el acceso completo a todos sus archivos normales y datos, incluyendo aplicaciones de correo electrónico y otros, mientras que fuera de la oficina. Este concepto ha sido remitido a los administradores del sistema como la pesadilla privada virtual, [36], ya que amplía el perímetro de seguridad de una red corporativa en lugares remotos y las casas de sus empleados.
Impacto social

Sitios de Internet por países.
Internet tiene un impacto profundo en el mundo laboral, el ocio y el conocimiento a nivel mundial. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Este nuevo medio de comunicación logró romper las barreras físicas entre regiones remotas, sin embargo el idioma continúa siendo una dificultad importante. Si bien en un principio nació como un medio de comunicación unilateral destinado a las masas, su evolución en la llamada Web 2.0 permitió la participación de los ahora emisores-receptores, creándose así variadas y grandes plazas públicas como puntos de encuentro en el espacio digital.
Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables, ya en decadencia tras la llegada de las plataformas sociales. La automatización de las bases de datos y la posibilidad de convertir cualquier computador en una terminal para acceder a ellas, ha traído como consecuencia la digitalización de diversos trámites, transacciones bancarias o consultas de cualquier tipo, ahorrando costos administrativos y tiempo del usuario. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.32
Esto también ha permitido la creación de proyectos de colaboración mundial en la creación de software libre y de código abierto (FOSS), por ejemplo: la Free Software Foundation con sus herramientas GNU y licencia de contenido libre, el núcleo de sistema operativo Linux, la Fundación Mozilla con su navegador web Firefox y su lector de correos Thunderbird, la suite ofimática Apache OpenOffice y la propia Fundación Wikimedia.33 34
Internet se extendió globalmente, no obstante, de manera desigual. Floreció en gran parte de los hogares y empresas de países ricos, mientras que países y sectores desfavorecidos cuentan con baja penetración y velocidad promedio de Internet. La inequidad del acceso a esta nueva tecnología se le conoce como brecha digital, lo que repercute menores oportunidades de conocimiento, comunicación y cultura. No obstante a lo largo de las décadas se observa un crecimiento sostenido tanto en la penetración y velocidad de Internet, como en su volumen de datos almacenados y el ancho de banda total usado en el intercambio de información por día, implementándose gradualmente en todas las naciones.
Filantropía
El voluntariado en línea es la modalidad de voluntariado que se lleva a cabo a través de Internet. Esta modalidad de voluntariado remoto aumenta la capacidad de las organizaciones en materia de desarrollo al tiempo que ofrece un espacio para que mucha gente participe en el desarrollo, algo de lo que, de otro modo, no disfrutarían35 Uno de los aspectos clave del voluntariado en línea es su poder de inclusión. Dado que el voluntariado en línea no implica gastos ni viajes, cualquier persona desde cualquier parte del mundo puede colaborar por la paz y el desarrollo.36
Ocio
Muchos utilizan Internet para descargar música, películas y otros trabajos. Hay fuentes que cobran por su uso y otras gratuitas, usando los servidores centralizados y distribuidos, las tecnologías de P2P. Otros utilizan la red para tener acceso a las noticias y el estado del tiempo.
La mensajería instantánea o chat y el correo electrónico son algunos de los servicios de uso más extendido. En muchas ocasiones los proveedores de dichos servicios brindan a sus afiliados servicios adicionales como la creación de espacios y perfiles públicos en donde los internautas tienen la posibilidad de colocar en la red fotografías y comentarios personales. Se especula actualmente si tales sistemas de comunicación fomentan o restringen el contacto de persona a persona entre los seres humanos.37
En tiempos más recientes han cobrado auge portales sociales, a veces con amplias discusiones,38 como YouTube, Twitter o Facebook entre otros, en donde los usuarios pueden tener acceso a una gran variedad de vídeos sobre prácticamente cualquier tema.
La pornografía representa buena parte del tráfico en Internet, siendo a menudo un aspecto controvertido de la red por las implicaciones morales que le acompañan. Proporciona a menudo una fuente significativa del rédito de publicidad para otros sitios. Muchos gobiernos han procurado sin éxito poner restricciones en el uso de ambas industrias en Internet.
El sistema multijugador constituye también buena parte del ocio en Internet.
Internet y su evolución
Inicialmente Internet tenía un objetivo claro. Se navegaba en Internet para algo muy concreto: búsquedas de información, generalmente.
Ahora quizás también, pero sin duda alguna hoy es más probable perderse en la red, debido al inmenso abanico de posibilidades que brinda. Hoy en día, la sensación que produce Internet es un ruido, una serie de interferencias, una explosión de ideas distintas, de personas diferentes, de pensamientos distintos de tantas posibilidades que, en ocasiones, puede resultar excesivo.
El crecimiento o, más bien, la incorporación de tantas personas a la red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí, entre todos sus miembros.
El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones virtuales entre personas. Es posible concluir que cuando una persona tenga una necesidad de conocimiento no escrito en libros, puede recurrir a una fuente más acorde a su necesidad, ahora esta fuente es posible en Internet.
Como toda gran revolución, Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores.
Internet produce algo que todos han sentido alguna vez; produce la esperanza que es necesaria cuando se quiere conseguir algo. Es un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial.
Para algunos usuarios, Internet genera una sensación de cercanía, empatía, comprensión y, a la vez, de confusión, discusión, lucha y conflictos que los mismos usuarios pueden considerar como la vida misma.
La evolución del internet radica en la migración de la versión y uso del IPv4 a IPv6.
IP es un protocolo que no está orientado a la conexión y no es completamente seguro en la transmisión de los datos, lo anterior permite que las conexiones inalámbricas tengan siempre movilidad. Por otro lado, para mejorar la confiabilidad se usa el protocolo TCP. El protocolo IP, es la forma en la que se enrutan los paquetes entre las redes. Cada nodo en cada una de las redes tiene una dirección IP diferente. Para garantizar un enrutamiento correcto, IP agrega su propio encabezado a los paquetes. Este proceso se apoya en tablas de enrutamiento que son actualizadas permanentemente. En caso de que el paquete de datos sea demasiado grande, el protocolo IP lo fragmenta para poderlo transportar. La versión que se está ocupando de este protocolo es la 4, donde se tiene conectividad, pero también ciertas restricciones de espacio. Es por eso que las grandes empresas proveedoras del servicio de internet migraran a la versión IPv6.
La nueva versión del protocolo IP Internet Protocol recibe el nombre de IPv6, aunque es también conocido comúnmente como IPng Internet Protocol Next Generation. IPv6 ha sido diseñado como un paso evolutivo desde IPv4, por lo que no representa un cambio radical respecto IPv4. Las características de IPv4 que trabajan correctamente se han mantenido en el nuevo protocolo, mientras que se han suprimido aquéllas que no funcionaban bien. De todos modos, los cambios que se introducen en esta nueva versión son muchos y de gran importancia debido a las bondades que ofrecen. A principios de 2010, quedaban menos del 10% de IPs sin asignar. En la semana del 3 de febrero del 2011, la IANA (Agencia Internacional de Asignación de Números de Internet, por sus siglas en inglés) entregó el último bloque de direcciones disponibles (33 millones) a la organización encargada de asignar IPs en Asia, un mercado que está en auge y no tardará en consumirlas todas. IPv4 posibilita 4,294,967,296 (232) direcciones de red diferentes, un número inadecuado para dar una dirección a cada persona del planeta, y mucho menos a cada vehículo, teléfono, PDA, etcétera. En cambio, IPv6 admite 340.282.366.920.938.463.463.374.607.431.768.211.456 (2128 o 340 sextillones de direcciones) —cerca de 6,7 × 1017 (670 milbillones) de direcciones por cada milímetro cuadrado de la superficie de La Tierra. Otra vía para la popularización del protocolo es la adopción de este por parte de instituciones. El Gobierno de los Estados Unidos ordenó el despliegue de IPv6 por todas sus agencias federales en el año 2008.[cita requerida]
Efectos de internet en el cerebro
En 2008 el tecnólogo americano Nicholas Carr publicó un artículo en el que afirmaba que Internet estaba erosionando nuestra capacidad de concentración y de pensamiento crítico, e incluso aseguraba que la Red cambiaría la estructura de nuestro cerebro y forma de pensar. Expertos de diversos ámbitos comenzaron a realizar estudios y a reflexionar sobre la relación entre la Red y nuestras capacidades cognitivas. Algunos coincidían con Carr, pero otros como Clive Thompson descartaban esos argumentos asegurando que siempre que surgía una nueva tecnología se producía el mismo debate. Estos «tecnooptimistas» afirman que la Red no solo potencia nuestra agilidad cerebral, sino que además nos permite aprender más y más rápido, en definitiva, nos está haciendo más inteligentes.Universo internet: ¿Más superficiales o más listos?
Fuente de información
En 2009, un estudio realizado en Estados Unidos indicó que un 56 % de los 3030 adultos estadounidenses entrevistados en una encuesta en línea manifestó que si tuviera que escoger una sola fuente de información, elegiría Internet, mientras que un 21 % preferiría la televisión y tanto los periódicos como la radio sería la opción de un 10 % de los encuestados. Dicho estudio posiciona a los medios digitales en una posición privilegiada en cuanto a la búsqueda de información y refleja un aumento de la credibilidad en dichos medios.39 40
Buscadores
Un buscador se define como el sistema informático que indexa archivos almacenados en servidores web cuando se solicita información sobre algún tema. Por medio de palabras clave, se realiza la exploración y el buscador muestra una lista de direcciones con los temas relacionados. Existen diferentes formas de clasificar los buscadores según el proceso de sondeo que realizan. La clasificación más frecuente los divide en: índices o directorios temáticos, motores de búsqueda y metabuscadores.
Índices o directorios temáticos
Los índices o buscadores temáticos son sistemas creados con la finalidad de diseñar un catálogo por temas, definiendo la clasificación por lo que se puede considerar que los contenidos ofrecidos en estas páginas tienes ya cierto orden y calidad.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas más importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el contenido de las páginas no esté completamente al día.
Motores de búsqueda
Artículo principal: Motor de búsqueda
Este tipo de buscadores son los de uso más común, basados en aplicaciones llamadas spiders ("arañas") o robots, que buscan la información con base en las palabras escritas, haciendo una recopilación sobre el contenido de las páginas y mostrando como resultado aquellas que contengan la palabra o frase en alguna parte del texto.
Metabuscadores
Los metabuscadores son sistemas que localizan información en los motores de búsqueda más utilizados, realizan un análisis y seleccionan sus propios resultados. No tienen una base de datos, por lo que no almacenan páginas web y realizan una búsqueda automática en las bases de datos de otros buscadores, de los cuales toma un determinado rango de registros con los resultados más relevantes y así poder tener la información necesaria.
La función de este tipo de sistemas es presentar algunos de los datos de las páginas más importantes, desde el punto de vista del tema y no de lo que se contiene. Los resultados de la búsqueda de esta de estos índices pueden ser muy limitados ya que los directorios temáticos, las bases de datos de direcciones son muy pequeñas, además de que puede ser posible que el contenido de las páginas no esté completamente al día.
Trabajo
Con la aparición de Internet y de las conexiones de alta velocidad disponibles al público, Internet ha alterado de manera significativa la manera de trabajar de algunas personas al poder hacerlo desde sus respectivos hogares. Internet ha permitido a estas personas mayor flexibilidad en términos de horarios y de localización, contrariamente a la jornada laboral tradicional, que suele ocupar la mañana y parte de la tarde, en la cual los empleados se desplazan al lugar de trabajo.
Un experto contable asentado en un país puede revisar los libros de una compañía en otro país, en un servidor situado en un tercer país que sea mantenido remotamente por los especialistas en un cuarto.
Internet y sobre todo los blogs han dado a los trabajadores un foro en el cual expresar sus opiniones sobre sus empleos, jefes y compañeros, creando una cantidad masiva de información y de datos sobre el trabajo que está siendo recogido actualmente por el colegio de abogados de Harvard.
Internet ha impulsado el fenómeno de la Globalización y junto con la llamada desmaterialización de la economía ha dado lugar al nacimiento de una Nueva Economía caracterizada por la utilización de la red en todos los procesos de incremento de valor de la empresa.
Publicidad
Artículo principal: Publicidad en Internet
Internet se ha convertido en el medio más fácilmente medible y de más alto crecimiento en la historia. Actualmente existen muchas empresas que obtienen dinero de la publicidad en Internet. Además, existen muchas ventajas que la publicidad interactiva ofrece tanto para el usuario como para los anunciantes.
Censura
Es extremadamente difícil, si no imposible, establecer control centralizado y global de Internet. Algunos gobiernos, de naciones tales como Irán, Arabia Saudita, Corea del Norte, la República Popular de China y Estados Unidos restringen el que personas de sus países puedan ver ciertos contenidos de Internet, políticos y religiosos, considerados contrarios a sus criterios. La censura se hace, a veces, mediante filtros controlados por el gobierno, apoyados en leyes o motivos culturales, castigando la propagación de estos contenidos. Sin embargo, muchos usuarios de Internet pueden burlar estos filtros, pues la mayoría del contenido de Internet está disponible en todo el mundo, sin importar donde se esté, siempre y cuando se tengan la habilidad y los medios técnicos necesarios.41
Otra posibilidad, como en el caso de China, es que este tipo de medidas se combine con la autocensura de las propias empresas proveedoras de servicios de Internet, serían las empresas equivalentes a Telefónicas (proveedores de servicios de Internet), para así ajustarse a las demandas del gobierno del país receptor.42
Sin embargo algunos buscadores como Google, han tomado la decisión de amenazar al gobierno de China con la retirada de sus servicios en dicho país si no se abole la censura en Internet. Aunque posteriormente haya negado que tomará dichas medidas.43
Para saltarse cualquier tipo de censura o coerción en el uso de internet, se han desarrollado múltiples tecnologías y herrramientas. Entre ellas cabe resaltar por un lado las técnicas y herramientas criptológicas y por otro lado las tecnologías encuadradas en la llamada Darknet. La Darknet es una colección de redes y tecnologías que persiguen la consecución de un anonimato total de los comunicantes, creando de esta forma una zona de total libertad. Aunque actualmente no se suele considerar que consigan un anonimato total, sin embargo, sí consiguen una mejora sustancial en la privacidad de los usuarios. Este tipo de redes se han usado intensamente, por ejemplo, en los sucesos de la Primavera Árabe y en todo el entramado de wikileaks para la publicación de información confidencial. Las tecnologías de la Darknet están en fase de perfeccionamiento y mejora de sus prestaciones.44
Para luchar contra la censura en Internet, RSF ha decidido desbloquear nueve sitios web informativos censurados en once países, es decir, permitirá que se pueda acceder a ellos desde el territorio en el que actualmente se encuentran prohibidos: Grani.ru, bloqueado en Rusia; Fregananews, censurado en Kazajistán, Uzbekistán y Turkmenistán; The Tibet Post y Mingjing News, prohibidos en China; Dan Lam Bao, bloqueado en Vietnam; Hablemos Press, censurado en Cuba; Gooya News, bloqueado en Irán; el Gulf Center for Human Rights, censurado en los Emiratos Árabes Unidos y en Arabia Saudita, y Bahrain Mirror, prohibido en Bahréin y en Arabia Saudita.
Internet en obras de ficción
Artículo principal: Internet en la ciencia ficción
Internet aparece muchas veces en obras de ficción. Puede ser un elemento más de la trama, algo que se usa de forma habitual tal y como se hace en la vida real.
También hay obras donde Internet se presenta como un medio maligno que permite a hackers sembrar el caos, alterar registros, como por ejemplo, las películas La Red, Live Free or Die Hard, etc. Hay otras obras donde aparece como una gran oportunidad para la libertad de expresión (por ejemplo, la película FAQ: Frequently Asked Questions).
Tamaño
Un estudio del año 2005 usando distintos motores de búsqueda (Google, MSN, Yahoo! y Ask Jeeves) estimaba que existían 11 500 millones de páginas Web.45 Otro estudio del año 2008 estimaba que la cantidad había ascendido a 63 000 millones de páginas web.46
Sin embargo es difícil establecer el tamaño exacto de Internet, ya que este crece continuamente y no existe una manera fiable de acceder a todo su contenido y, por consiguiente, de determinar su tamaño. Para estimar esta cantidad se usan las webs indexadas por los distintos motores de búsqueda, pero este método no abarca todas las páginas en línea. Utilizando este criterio Internet se puede dividir en:
Internet superficial: Incluye los servicios indexados por los motores de búsqueda.
Internet profunda: Incluye el resto de servicios no indexados como páginas en Flash, páginas protegidas por contraseña, inaccesibles para las arañas, etc.
Usuarios

Gráfica que representa el número de usuarios de Internet.47 48

Idiomas usados en internet.1
En general el uso de Internet ha experimentado un tremendo crecimiento. De 2000 a 2009, el número de usuarios de Internet a nivel mundial aumentó 394 millones a 1858 millones. En 2010, el 22 por ciento de la población mundial tenía acceso a las computadoras con mil millones de búsquedas en Google cada día, 300 millones de usuarios de Internet leen blogs, y 2 mil millones de vídeos vistos al día en YouTube.49 50
El idioma predominante de la comunicación en internet ha sido inglés. Este puede ser el resultado del origen de la internet, así como el papel de la lengua como lengua franca. Los primeros sistemas informáticos se limitaban a los personajes en el Código Estándar Americano para Intercambio de Información (ASCII), un subconjunto del alfabeto latino.51
Después de inglés (27 %), los idiomas más solicitados en la World Wide Web son el chino (23 %), español (8 %), japonés (5 %), portugués y alemán (4 % cada uno), árabe, francés y ruso (3 % cada uno) y coreano (2 %). Por regiones, el 42 % de los usuarios de Internet en el mundo están en Asia, 24 % en Europa, el 14 % en América del Norte, el 10 % en Latinoamérica y el Caribe, adoptado en conjunto, un 6 % en África, 3 % en el Oriente Medio y un 1 % en Oceanía. Las tecnologías del internet se han desarrollado lo suficiente en los últimos años, especialmente en el uso de Unicode, que con buenas instalaciones están disponibles para el desarrollo y la comunicación en los idiomas más utilizados del mundo. Sin embargo, algunos problemas, tales como la visualización incorrecta de caracteres de algunos idiomas, aún permanecen.52
En un estudio norteamericano en el año 2005, el porcentaje de varones que utilizan internet estaba muy ligeramente por encima del porcentaje de las mujeres, aunque esta diferencia estaba invertida en los menores de 30 años. Los hombres se conectaron más a menudo, pasan más tiempo en línea, y eran más propensos a ser usuarios de banda ancha, mientras que las mujeres tienden a hacer mayor uso de las oportunidades de comunicación, como el correo electrónico. Los hombres eran más propensos a utilizar el internet para pagar sus cuentas, participar en las subastas, y para la recreación, tales como la descarga de música y vídeos. Ambos sexos tenían las mismas probabilidades de utilizar internet para hacer compras y la banca. Los estudios más recientes indican que en 2008, las mujeres superaban en número a los hombres de manera significativa en la mayoría de los sitios de redes sociales, como Facebook y Myspace, aunque las relaciones variaban con la edad. Además, las mujeres vieron más contenido de streaming, mientras que los hombres descargaron más. En cuanto a los blogs, los varones eran más propensos a tener uno profesional, mientras que las mujeres eran más propensas a tener un blog personal.
En cuanto a redes sociales, a fecha de 24 de marzo de 2016, Facebook tiene más de 1 628 000 000 millones de usuarios.53 Twitter tiene más de 304 millones53 y Google tiene más de 434 millones.53 Cada segundo se publican unos 700 fotos en Instagram,53 y también, cada segundo se envían casi tres mil correos electrónicos y se realizan aproximadamente dos mil llamadas por Skype.53
Diariamente se realizan más de 2 566 000 000 de búsquedas en Google53 y cada segundo se ve más de 119 00053 videos en YouTube. Además, hay que tener en cuenta que, en internet se maneja un tráfico de más de 33 000 GB por segundo,53 se consume 1 763 000 MWh por día53 y diariamente se lanzan 1.5 millones de toneladas de CO2 por el consumo de internet.53

Ha recibido 1730 puntos

Vótalo:

TABLA DE ESQUÍ/ESQUÍES (6000 a.C)

9. TABLA DE ESQUÍ/ESQUÍES (6000 a.C)

https://www.youtube.com/watch?v=Q7ZJ_bNNKx0

Una tabla de esquí o simplemente esquí es una tabla especialmente diseñada para deslizarse sobre la nieve y preparada para realizar un descenso por una montaña nevada esquiando. Originalmente las tablas de esquiar eran una única pieza de madera. Actualmente están construidas por un complejo... Ver mas
Una tabla de esquí o simplemente esquí es una tabla especialmente diseñada para deslizarse sobre la nieve y preparada para realizar un descenso por una montaña nevada esquiando.
Originalmente las tablas de esquiar eran una única pieza de madera. Actualmente están construidas por un complejo ensamblaje de piezas de fibra de carbono, kevlar, titanio o materiales compuestos, aunque algunas aún pueden tener un núcleo de madera.
Aunque en la actualidad hay muchos tipos de esquí, la mayoría son largos (hasta casi los 2 metros los más largos) y delgados, con la punta y la cola de mayor anchura y la parte central más estrecha pero con un mayor grosor que en la punta y cola. En la parte central se encuentra la fijación, que es donde se coloca la bota de esquí del esquiador. Esta fijación tiene dos dispositivos de seguridad que liberan la bota de la misma en caso de sobrepasar un determinado valor de apriete. Se protege así la pierna del esquiador de una posible fractura en caso de caída. Suelen llevar un dispositivo de freno que se activa automáticamente cuando el esquí se separa de la bota, para evitar que deslice suelto y sin control pendiente abajo.
Tipos de esquí[editar]
Esquí
Esquí mixto (fuera y dentro de pista)
Esquí carving
Esquí freeride
Esquí freestyle
Esquí para mujer
Esquí infantil
Big foots
Monoesquí
Esquí de travesía
Esquí de fondo
Esquí de salto
Esquí de telemark

Ha recibido 1678 puntos

Vótalo:

VACUNAS (1796)

10. VACUNAS (1796)

https://www.youtube.com/watch?v=__bM3sj_bEM

Una vacuna es una preparación biológica que proporciona inmunidad adquirida activa ante una determinada enfermedad. Una vacuna contiene típicamente un agente que se asemeja a un microorganismo causante de la enfermedad y a menudo se hace a partir de formas debilitadas o muertas del microbio, sus... Ver mas
Una vacuna es una preparación biológica que proporciona inmunidad adquirida activa ante una determinada enfermedad. Una vacuna contiene típicamente un agente que se asemeja a un microorganismo causante de la enfermedad y a menudo se hace a partir de formas debilitadas o muertas del microbio, sus toxinas o una de sus proteínas de superficie. El agente estimula el sistema inmunológico del cuerpo a reconocer al agente como una amenaza, destruirla y guardar un registro del mismo, de modo que el sistema inmune puede reconocer y destruir más fácilmente cualquiera de estos microorganismos que encuentre más adelante. Las vacunas pueden ser profilácticas (ejemplo: para prevenir o aminorar los efectos de una futura infección por algún patógeno natural o "salvaje") o terapéuticas (por ejemplo, también se están investigando vacunas contra el cáncer).
La administración de vacunas se llama vacunación. La efectividad de la vacunación ha sido ampliamente estudiado y confirmada; por ejemplo, la vacuna contra la influenza,1 la vacuna contra el VPH,2 y la vacuna contra la varicela.3 La vacunación es el método más eficaz de prevenir las enfermedades infecciosas;4 la inmunidad generalizada debido a la vacunación es en gran parte responsable de la erradicación mundial de la viruela y la restricción de enfermedades como la poliomielitis, el sarampión y el tétanos en la mayoría del mundo. La Organización Mundial de la Salud (OMS) informa que las vacunas autorizadas están disponibles actualmente para prevenir o contribuir a la prevención y control de veinticinco infecciones.5
Los términos vacuna y vacunación derivan de variolae vaccinae (viruela de la vaca), término acuñado por Edward Jenner para denotar la viruela bovina. Lo utilizó en 1798 en el largo título de su Investigación sobre la ... variolae vaccinae ... conocido ... [como] ... la viruela bovina, en el que describió el efecto protector de la viruela bovina contra la viruela humana.6 En 1881, en ​​honor a Jenner, Louis Pasteur propuso que los términos deben ampliarse para cubrir las nuevas inoculaciones de protección que entonces se estaban desarrollando.7
Índice [ocultar]
1 Clasificación
2 Origen de las vacunas
3 Cronología de las vacunas
4 Tipos de vacunas
5 Desarrollo de la inmunidad
6 Calendario de vacunaciones
7 Vacunas y economía
8 Vacunas y ética
9 Vacunas y tiomersal
10 Movimiento antivacunas
11 Véase también
12 Referencias
13 Enlaces externos
Clasificación[editar]
Las vacunas se clasifican en dos grandes grupos:
Vacunas vivas atenuadas.
Vacunas inactivadas.
Existen varios métodos de obtención:
Vacunas avirulentas preparadas a partir de formas no peligrosas del microorganismo patógeno.
Vacunas posificadas a partir de organismos muertos o inactivos.
Antígenos purificados.
Vacunas genéticas.
Las vacunas se administran por medio de una inyección, o por vía oral (tanto con líquidos como con pastillas).
Origen de las vacunas[editar]
La viruela fue la primera enfermedad que el ser humano intentó prevenir inoculándose a sí mismo con otro tipo de enfermedad.[cita requerida]
Se cree que la inoculación nació en la India o en China alrededor del 200 a. C. En China, a los pacientes que sufrían tipos leves de viruela se les recogían fragmentos de pústulas secas para molerlas hasta conseguir una mezcla con aspecto de polvo que luego se le introducía por la nariz, esperando que esto les inmunizara. En 1718, Lady Mary Wortley Montagu informó que los turcos tenían la costumbre de inocularse con pus tomado de la viruela vacuna. Lady Montagu inoculó a sus propios hijos de esta manera.

«The Cow-Pock—or—the Wonderful Effects of the New Inoculation!» (1802), viñeta satírica de James Gillray, de las Publications of ye Anti-Vaccine Society, que muestra a Edward Jenner administrando vacunas contra el virus de la viruela bovina en el hospital de San Pancracio. El temor popular era que la vacuna provocaría el crecimiento de «apéndices vacunos» en los pacientes.
En 1796, durante el momento de mayor extensión del virus de la viruela en Europa, un médico rural de Inglaterra, Edward Jenner, observó que las recolectoras de leche adquirían ocasionalmente una especie de «viruela de vaca» o «viruela vacuna» (cowpox) por el contacto continuado con estos animales, y que luego quedaban a salvo de enfermar de viruela común. Efectivamente se ha comprobado que esta viruela vacuna es una variante leve de la mortífera viruela «humana». Trabajando sobre este caso de inoculación, Jenner tomó viruela vacuna de la mano de la granjera Sarah Nelmes. Insertó este fluido a través de inyección en el brazo de un niño de ocho años, James Phipps. El pequeño mostró síntomas de la infección de viruela vacuna. Cuarenta y ocho días más tarde, después de que Phipps se hubiera recuperado completamente de la enfermedad, el doctor Jenner le inyectó al niño infección de viruela humana, pero esta vez no mostró ningún síntoma o signo de enfermedad.8
En 1881 Louis Pasteur lleva a cabo un audaz y brillante experimento público para comprobar de la efectividad de la vacuna antiantráxica ideada por él, en la granja, hoy histórica, de Pouilly-le-Fort. El desarrollo del experimento fue como sigue[cita requerida]:
El 5 de mayo inyecta 24 carneros, 1 chivo y 6 vacas con 58 gotas de un cultivo atenuado de Bacillus anthracis. El 17 de mayo, estos mismos animales fueron inoculados nuevamente con la misma cantidad de un cultivo menos atenuado, o sea más virulento. El 31 de mayo se realizó la prueba suprema. Se inyectaron con cultivos muy virulentos, todos los animales ya vacunados, y además, 24 carneros, 1 chivo y 4 vacas no vacunados, que sirvieron como grupo testigo a la prueba.
El 2 de junio, una selecta y nutrida concurrencia apreció los resultados, que fueron los siguientes:
Todos los carneros vacunados estaban bien. De los no vacunados, 21 habían muerto ya, 2 más murieron durante la exhibición ante la propia concurrencia y el último al caer de la tarde de ese día. De las vacas, las 6 vacunadas se encontraban bien, mientras que las 4 no vacunadas mostraban todos los síntomas de la enfermedad y una intensa reacción febril.
Louis Pasteur
Al comunicar estos resultados, Pasteur introdujo los términos de vacuna y vacunación que provienen de la palabra latina vacca, fruto de los resultados obtenidos al inocular el virus de la vacuna; en la terminología médica como homenaje a Jenner, su ilustre predecesor.
Cronología de las vacunas[editar]
Sólo la viruela ha sido eliminada en el mundo.
Siglo XVIII
1796: Primera vacuna para viruela.
Siglo XIX
1879: Primera vacuna para la diarrea crónica intestinal grave;
1881: Primera vacuna para el ántrax;
1882: Primera vacuna para la rabia;
1890: Primera vacuna para el tétanos;
1890: Primera vacuna para la difteria;
1897: Primera vacuna para la peste.
Siglo XX
1926: Primera vacuna para tos ferina;
1927: Primera vacuna para la tuberculosis;
1937: Primera vacuna para la fiebre amarilla;
1937: Primera vacuna para el tifus;
1945: Primera vacuna para la gripe;
1952: Primera vacuna para la poliomielitis;
1954: Primera vacuna para la encefalitis japonesa;
1962: Primera vacuna oral para la poliomielitis;
1964: Primera vacuna para el sarampión;
1967: Primera vacuna para la paperas;
1970: Primera vacuna para la rubéola;
1974: Primera vacuna para la varicela;
1977: Primera vacuna para la neumonía (Streptococcus pneumoniae);
1978: Primera vacuna para la meningitis (Neisseria meningitidis);
1981: Primera vacuna para la hepatitis B;
1985: Primera vacuna para la haemophilus influenzae tipo b (HiB);
1992: Primera vacuna para la hepatitis A;
1998: Primera vacuna para la enfermedad de Lyme;
Siglo XXI
2005: Primera vacuna para el virus del papiloma humano (principal factor de riesgo del cáncer de cérvix).
2008: Primera vacuna para prevenir la adicción a la heroína y a la cocaína (Aunque siguen haciéndose experimentos con esta vacuna para comprobar su efectividad).
2009: Posible vacuna contra la Hepatitis C, Primera Vacuna contra la Gripe A (H1N1)
Tipos de vacunas[editar]

Alumna del Instituto Tecnológico y de Estudios Superiores de Monterrey, Campus Ciudad de México en campaña de vacunas en México

Centro de vacunación de Air France, VII Distrito de París
Las vacunas pueden estar compuestas de bacterias o virus, ya sean vivos o debilitados, que han sido criados con tal fin. Las vacunas también pueden contener organismos inactivos o productos purificados provenientes de aquellos primeros. Hay cinco tipos de vacunas:
Inactivadas: microorganismos dañinos que han sido tratados con productos químicos o calor y han perdido su peligro. Este tipo de vacunas activa el sistema inmune pero es incapaz de reproducirse en el huésped. La inmunidad generada de esta forma es de menor intensidad y suele durar menos tiempo, por lo que este tipo de vacuna suele requerir más dosis. Dado que la respuesta inmune lograda es menor, se utilizan en estas vacunas unas sustancias denominadas adyuvantes. Estas sustancias están sirven a la vacuna a aumentar la respuesta inmunitaria del organismo. Ejemplos de este tipo son: la gripe, cólera, peste bubónica y la hepatitis A.
Vivas atenuadas: microorganismos que han sido cultivados expresamente bajo condiciones en las cuales pierden o atenúan sus propiedades patógenas. Suelen provocar una respuesta inmunológica más duradera, y son las más usuales en los adultos. Esto se debe a que el microorganismo no se encuentra inactivado y conserva su estructura. Por eso, en muchas ocasiones puede provocar la enfermedad en personas inmunodeprimidas. Por ejemplo: la fiebre amarilla, sarampión o rubéola (también llamada sarampión alemán) y paperas.
Toxoides: son componentes tóxicos inactivados procedentes de microorganismos, en casos donde esos componentes son los que de verdad provocan la enfermedad, en lugar del propio microorganismo. Estos componentes se podrían inactivar con formaldehído, por ejemplo. En este grupo se pueden encontrar el tétanos y la difteria.
Acelulares: consisten en una mezcla de componentes subcelulares purificados del patógeno contra el que se quiere inmunizar, que normalmente consta de proteínas antigénicas altamente inmunogénicas y que pueden contener toxoides. Una vacuna de este tipo se utiliza en la actualidad contra la tos ferina.
Recombinantes de subunidad: se utiliza la tecnología del ADN recombinante para introducir el gen codificante para un antígeno altamente inmunogénico en el genoma de un microorganismo productor (como E. coli o S. cerevisiae) con el objetivo de superproducir y purificar la proteína antigénica, que será la base de una vacuna. Estas técnicas de producción de vacunas son muy útiles cuando el patógeno contra el que se quiere inmunizar es difícil de cultivar in vitro. Un ejemplo característico es la vacuna subunitaria contra la hepatitis B, que está compuesta solamente por la superficie del virus (superficie formada por proteínas). Para obtener esta vacuna, se clonó el gen S del hepadnavirus causante de la hepatitis B en S. cerevisiae y se superprodujo y purificó, dando como resultado y vacuna efectiva (el gen S codifica el antígeno de HBsAg autoensamblable localizado en la superficie del virus). Un tipo particular de vacunas recombinantes serían las vacunas comestibles, producidas mediante plantas transgénicas. En estos casos, el transgén transferido a la planta sería uno codificante para un antígeno de interés, que producirá una respuesta inmune. Para tratarse de una vacuna comestible, la expresión del transgén debe estar dirigida por un promotor específico de tejido, que haga que se exprese sólo en determinados órganos comestibles, como las semillas de los cereales o los tubérculos. Las grandes ventajas de la producción de vacunas comestibles residen en su bajo coste de producción, en que el antígeno puede expresarse en órganos en los que sea estable a temperatura ambiente (como los mencionados anteriormente), lo que eliminaría los costes de mantener la cadena del frío, y en la posibilidad de expresar de forma simultánea varios antígenos y adyuvantes en el mismo órgano de la planta. Por supuesto, este sistema de producción también posee inconvenientes, como el control sobre el nivel de expresión del antígeno, la homogeneidad de la expresión (ajuste de dosis) o el mantenimiento de la integridad del antígeno ante sus exposición a jugos gástricos e intestinales. Hasta ahora, los trabajos más representativos en este tema han tratado sobre la producción de la vacuna contra la hepatitis B, dando resultados satisfactorios al inmunizar ratones que comieron patata en la que se acumuló el antígeno.
La vacuna contra la tuberculosis por ejemplo, es la llamada vacuna BCG (Bacilo de Calmette y Guerin, que debe su nombre a sus descubridores) se fabrica con bacilos vivos atenuados y por tanto no es contagiosa de esta enfermedad.
Hoy día se están desarrollando y probando nuevos tipos de vacunas:
Polisacarídicas: ciertas bacterias tienen capas externas de polisacáridos que son mínimamente inmunitarios. Poniendo en contacto estas capas externas con proteínas, el sistema inmunitario puede ser capaz de reconocer el polisacárido como si fuera un antígeno (un antígeno puede ser una proteína o un polisacárido). De esa manera generamos anticuerpos contra la bacteria y contra el polisacárido (exopolisacárido, en este caso). Este proceso es usado en la vacuna Haemophilus influenzae del tipo B (también conocido como bacilo de Pfeiffer).
Vector recombinante: combinando la fisiología (cuerpo) de un microorganismo dado y el ADN (contenido) de otro distinto, la inmunidad puede ser creada contra enfermedades que tengan complicados procesos de infección. Los esfuerzos para crear vacunas contra las enfermedades infecciosas, así como inmunoterapias para el cáncer, enfermedades autoinmunes y alergias han utilizado una variedad de sistemas de expresión heteróloga, incluyendo vectores virales y bacterianos, así como construcciones recombinantes de ADN y ARN.9 Los vectores más utilizados en este tipo de vacunas son el virus vaccinia, algunas bacterias lácticas (no patogénicas) de los géneros Lactobacillus y Lactococcus y variedades atenuadas de M. tuberculosis y Salmonella typhi (ésta última se utiliza más, dado que se conoce muy bien y sus efectos patogénicos son mucho más suaves). Los principales problemas de este tipo de vacunas son la posibilidad de que la respuesta inmunitaria ante ellas sea insuficiente para dejar memoria en el sistema inmune y la inducción de la producción del antígeno una vez el vector está dentro del organismo (se está estudiando el uso de inductores como la tetraciclina y la aspirina).
Vacuna de ADN: vacuna de desarrollo reciente, es creada a partir del ADN de un agente infeccioso. Funciona al insertar ADN de bacterias o virus dentro de células humanas o animales. Algunas células del sistema inmunitario reconocen la proteína surgida del ADN extraño y atacan tanto a la propia proteína como a las células afectadas. Dado que estas células viven largo tiempo, si el agente patógeno (el que crea la infección) que normalmente produce esas proteínas es encontrado tras un periodo largo, serán atacadas instantáneamente por el sistema inmunitario. Una ventaja de las vacunas ADN es que son muy fáciles de producir y almacenar. Aunque en 2006 este tipo de vacuna era aún experimental, presenta resultados esperanzadores. Sin embargo no se sabe con seguridad si ese ADN puede integrarse en algún cromosoma de las células y producir mutaciones.
Es importante aclarar que, mientras la mayoría de las vacunas son creadas usando componentes inactivados o atenuados de microorganismos, las vacunas sintéticas están compuestas en parte o completamente de péptidos, carbohidratos o antígenos. Estas sintéticas suelen ser consideradas más seguras que las primeras.
Desarrollo de la inmunidad[editar]
El sistema inmunitario reconoce los agentes de la vacuna como extraños, destruyéndolos y recordándolos. Cuando una versión realmente nociva de la infección llega al organismo, el sistema inmunitario está ya preparado para responder:
Neutralizando al agente infeccioso antes de que pueda entrar en las células del organismo; y
Reconociendo y destruyendo las células que hayan sido infectadas, antes de que el agente se pueda multiplicar en gran número.
Las vacunas han contribuido a la erradicación de la viruela, una de las enfermedades más contagiosas y mortíferas que ha conocido la humanidad. Otras como la rubéola, la polio, el sarampión, las paperas, la varicela-zóster (virus que puede producir la varicela común y el herpes zóster) y la fiebre tifoidea no son tan comunes como hace un siglo. Dado que la gran mayoría de la gente está vacunada, es muy difícil que surja un brote y se extienda con facilidad. Este fenómeno es conocido como «inmunidad colectiva». La polio, que se transmite sólo entre humanos, ha sido el objetivo de una extensa campaña de erradicación que ha visto restringida la polio endémica, quedando reducida a ciertas partes de tres países (Nigeria, Pakistán y Afganistán). La dificultad de hacer llegar la vacuna a los niños ha provocado que la fecha de la erradicación se haya prolongado hasta la actualidad.
Calendario de vacunaciones[editar]
Véase también: Esquema de inmunizaciones
En cada país se recomienda que los niños sean vacunados tan pronto su sistema inmunitario sea capaz de responder a la inmunización artificial, con las dosis de refuerzo posteriores que sean necesarias, para conseguir la mejor protección sanitaria. Además, también existen unas recomendaciones internacionales de la Organización Mundial de la Salud (OMS).10
Al margen del calendario de vacunaciones infantiles y de situaciones de viaje, algunas vacunas son recomendadas durante toda la vida (dosis de recuerdo) como el tétanos, gripe, neumonía, etc. Las mujeres embarazadas son a menudo examinadas para comprobar su resistencia a la rubéola. Para las personas de edad avanzada se recomiendan especialmente las vacunas contra la neumonía y la gripe, enfermedades que a partir de cierta edad son aún más peligrosas.
Vacunas y economía[editar]
La economía es uno de los mayores retos de las vacunas. Muchas de las enfermedades que más demandan una vacuna (incluyendo el sida, la malaria o la tuberculosis) están presentes especialmente en países pobres. A pesar de que algunas empresas farmacéuticas y compañías de biotecnología han incentivado el desarrollo de vacunas para estas enfermedades limitadamente (dado que las expectativas de ingresos son bajas) el número de vacunas realmente administradas ha aumentado dramáticamente en las últimas décadas, especialmente aquellas suministradas a los niños en los primeros años de vida. Esto quizás se deba más a medidas gubernamentales que a incentivos económicos. La mayoría del desarrollo de vacunas hasta la fecha se ha debido a impulsos de gobiernos y ONG, agencias internacionales, universidades...
Muchos investigadores y políticos hacen un llamamiento para unir y motivar dicha industria, usando mecanismos de presión como los precios, impuestos o compromisos empresariales que puedan asegurar la retribución a las empresas que exitosamente consigan una vacuna contra el VIH (causante del sida).
Vacunas y ética[editar]
El «calendario oficial de vacunación» no es obligatorio, sino recomendado, por lo que como en otros tratamientos médicos, el profesional sanitario debe explicar los beneficios y perjuicios de los efectos que puede tener sobre el paciente, y por tanto, la norma es el consentimiento informado previo a su inoculación. El principio ético de la autonomía exige que se informe detalladamente a las personas que pueden ser vacunadas, para que tomen una decisión apropiada en libertad.11 12
Vacunas y tiomersal[editar]
Artículo principal: Controversia del tiomersal
El tiomersal (tiomersal o timerosal) es un agente antiséptico y antifúngico derivado del mercurio que ha sido usado como conservante en vacunas desde la década de 1930. Aunque actualmente la mayoría de las vacunas usadas en Estados Unidos y Europa ya no usan tiomersal, diversos movimientos antivacunas achacan a este compuesto un supuesto aumento de trastornos del desarrollo como retrasos en el lenguaje, autismo e hiperactividad. El principal trabajo científico que apoyaba un vínculo entre la vacuna triple vírica y el autismo y enfermedades gastroentestinales13 desató una gran controversia. En 2010, una investigación del Consejo Médico General del Reino Unido determinó que el autor de dicho estudio, Andrew Wakefield, había violado protocolos éticos, no informó de serios conflictos de intereses y falsificó datos. El Consejo decidió suspenderlo del ejercicio de la práctica médica en el Reino Unido.14 A la vista de dicho informe, la revista The Lancet decidió retractarse y retirar el artículo de Wakefield.15
Durante el desarrollo de la controversia, algunos estamentos médicos oficiales estadounidenses y europeos aconsejaron una reducción del uso de tiomersal en vacunas infantiles como respuesta a la creciente preocupación de algunos padres a pesar de reconocer que no existen evidencias de que sea responsable de ningún trastorno.16
No obstante, tras examinar el perfil actual del tiomersal, el Comité Consultivo Mundial sobre Seguridad de las Vacunas concluyó que no hay evidencia de toxicidad por mercurio en lactantes, niños o adultos expuestos al tiomersal en las vacunas. Aunque algunas autoridades nacionales de salud pública están tratando de sustituir las vacunas que lo contienen en respuesta a miedos populares, no existe evidencia científica contrastada de toxicidad derivada del tiomersal.
Movimiento antivacunas[editar]
Véase también: Controversia de las vacunas
En el continente americano, el sarampión fue eliminado en 2002. No hay casos que se originen ahora porque todo el mundo ha sido inmunizado. No obstante en zonas marginadas de México ―por una aplicación incorrecta de vacunas― hay brotes de tuberculosis y casos hospitalarios por varicelas complicadas.[cita requerida]
En mayo de 2011 hubo un brote de sarampión en Francia. Como ya no se veían casos de sarampión, la gente pensó que no había necesidad de inmunizar a sus niños. El alto número de casos se debió a un exceso de confianza.17

Ha recibido 1609 puntos

Vótalo:

ANESTESIA (1842)

11. ANESTESIA (1842)

https://www.youtube.com/watch?v=1MgQvuanLfU

La anestesia (del gr. ἀναισθησία, que significa "insensibilidad") es un acto médico controlado en el que se usan fármacos para bloquear la sensibilidad táctil y dolorosa de un paciente, sea en todo o parte de su cuerpo y sea con o sin compromiso de conciencia. La anestesia general se... Ver mas
La anestesia (del gr. ἀναισθησία, que significa "insensibilidad") es un acto médico controlado en el que se usan fármacos para bloquear la sensibilidad táctil y dolorosa de un paciente, sea en todo o parte de su cuerpo y sea con o sin compromiso de conciencia.
La anestesia general se caracteriza por brindar hipnosis, amnesia, analgesia, relajación muscular y abolición de reflejos.
La anestesia la aplica el anestesista o anestesiólogo, que es el médico que practica la anestesiología y reanimación.
Índice [ocultar]
1 Historia
2 Tipos de anestesia
3 Fármacos empleados
4 Intraoperatorio
4.1 Despertar intraoperatorio
5 Postoperatorio
6 Véase también
7 Referencias
8 Bibliografía
9 Enlaces externos
Historia[editar]

Crawford W. Long, pionero en el uso de la anestesia.
En 1275, el médico mallorquín Ramon Llull obtuvo un líquido volátil e inflamable mientras experimentaba con ciertas sustancias químicas, y lo llamó vitriolo dulce.[cita requerida] En el siglo XVI, un médico de origen suizo conocido comúnmente como Paracelso hizo que unos pollos inhalaran vitriolo dulce, y observó que no solo se dormían, sino que también perdían toda sensibilidad al dolor. Ni él ni Llull, su predecesor, experimentaron con seres humanos. En 1730, el químico londinense de origen alemán August Sigmund Frobenius le dio a este líquido su nombre actual de éter, que en griego significa «cielo». Sin embargo, habrían de transcurrir 112 años más antes de que los poderes anestésicos del éter se apreciaran a plenitud. Mientras tanto, el científico inglés Joseph Priestley descubría en 1772 el óxido nitroso, gas que al principio se creyó letal, aun en pequeñas dosis. Pero en 1799 el químico e inventor británico Humphry Davy decidió resolver la incógnita probándolo consigo mismo. Descubrió con asombro que lo hacía reír, así que lo denominó “gas hilarante”. Davy escribió sobre las posibles propiedades anestésicas del compuesto gaseoso, pero nadie en aquellos días continuó con las investigaciones.
Un joven médico estadounidense llamado Crawford Williamson Long se percató de que sus amigos eran insensibles al dolor aunque se habían lastimado al ir tambaleando de un lado a otro bajo los efectos del éter. De inmediato pensó en su potencial aplicación a la cirugía. Dio la casualidad de que James Venable, estudiante que participaba en una fiesta de éter, tenía dos pequeños tumores que deseaba que le extirparan, pero posponía siempre la operación por miedo al dolor. Cuando Long le propuso practicársela bajo los efectos del éter, Venable accedió, y el 30 de marzo de 1842 se realizó la intervención sin dolor. No obstante, Long no hizo público su descubrimiento sino hasta 1849.
Fue el doctor odontólogo Horace Wells quien comenzó a utilizar el óxido nitroso como anestesia, después de habérselo visto utilizar al autotitulado profesor y químico Gardner Q. Colton en sus espectáculos, los cuales consistían en administrar este gas a voluntarios del público. Esto los ponía en un estado de euforia y excitación (a veces violentos), y perdían sus inhibiciones, lo cual deleitaba al público. En una ocasión, uno de los voluntarios bajo el efecto del gas se hirió y el doctor Wells observó que no sentía dolor. Con base en esto decidió comprobar en sí mismo si el óxido nitroso eliminaba el dolor y el 11 de diciembre de 1844, tras aspirar el gas, su ayudante John Riggs le practicó una extracción dental de un molar, sin que Wells se quejara. Al despertar, Wells exclamó: "Una nueva era para la extracción de órganos dentales".
Más adelante, el 16 de octubre de 1846, en Boston, fue William Morton, ayudante de Wells, quien realizó una exitosa demostración del uso de la anestesia al aplicársela a un paciente del doctor John Collins Warren. El doctor Warren pudo eliminar un tumor del cuello de su paciente sin que éste sintiera dolor alguno. Desde entonces, Morton se dedicó a administrar anestesia, ocultando el tipo de gas que usaba (que él llamaba "letheon") para usarlo en exclusividad, pero se vio forzado a revelar que se trataba de éter. Desde ese momento, el uso de éter se difundió rápidamente.
A mediados de diciembre de 1847, en un hospital de Edimburgo, el tocólogo James Simpson y su compañero Dunkan practicaron el primer parto sin dolor empleando cloroformo, dado que el éter ya había sido probado en enero de ese mismo año comprobando que a pesar de quedar dormida la paciente las contracciones del parto continuaban con normalidad. El éter provocaba efectos secundarios que incitaron a Simpson a buscar otro gas con parecidos efectos pero sin los accesos de tos que surgían después de la inhalación de grandes cantidades de éter. La madre estuvo tan agradecida que llamó a su hija "Anestesia". En 1848 el doctor John Snow perfeccionó la técnica de aplicación del cloroformo al administrarlo en pequeñas dosis durante el parto. Este hecho no se popularizó sino hasta el año 1853, cuando Snow aplicó cloroformo a la reina Victoria en el parto del príncipe Leopoldo de Sajonia-Coburgo-Gotha. Después del parto, nombró al doctor Sir.
A pesar de la introducción de otros anestésicos inhalatorios (eteno, tricloroeteno, ciclopropano), el éter continuó siendo el anestésico general estándar hasta principios de 1960, para ser luego reemplazado por potentes y no inflamables agentes inhalatorios, como el halotano, seguido luego por el enfluorano, y más adelante por el isofluorano hasta llegar, en la década de 1990, al sevofluorano y al más reciente desfluorano.
Para lograr su objetivo que es suprimir el dolor, la anestesiología debió experimentar diferentes formas de llevar al individuo a un coma farmacológico reversible, es decir, anulando la actividad cortical a través de sustancias que provocan una estabilización de la membrana celular de la neurona a través de una hiperpolarización de la misma, bloqueando la entrada del ion calcio a través de la interacción con receptores GABA de las membranas celulares. Ésta es una de las teorías más aceptadas de la farmacología, sin que todavía sea la última palabra.
Tipos de anestesia[editar]
Existen tres tipos principales de anestesia:
Anestesia local: Sólo se elimina la sensibilidad dolorosa de una pequeña zona del cuerpo, generalmente la piel, mientras el paciente continúa consciente. Es muy frecuente su uso en odontología.
Anestesia locorregional: Se elimina la sensibilidad de una región y/o de uno o varios miembros del cuerpo. Puede ser:
a) Troncular de un nervio o plexo nervioso o
b) Neuroaxial: actúa bloqueando el impulso doloroso a nivel de la médula espinal, y a su vez puede ser:
Epidural o peridural: se introduce el anestésico en las proximidades de la médula en el espacio epidural, sin perforar la duramadre (desarrollada por primera vez por el médico español Fidel Pagés); tiene una instauración menos rápida que la intratecal, los cambios hemodinámicos debidos al bloqueo simpático también se instauran más lentamente;
Intradural o raquídea: se perfora la duramadre y la aracnoides, y se introduce el anestésico en el espacio subaracnoideo, mezclándose con el líquido cefalorraquídeo; ésta la desarrolló por primera vez August Bier en 1898, cuando administró en un paciente 3 ml de cocaína al 0,5%;
c) Regional intravenosa o bloqueo de Bier: Técnica desarrollada por August Bier, cirujano de origen alemán, la cual consiste dejar exangüe un miembro por compresión con una venda elástica, mantenerlo en esa condición con un torniquete neumático y -finalmente- llenarlo con una solución de anestésico local, inyectada por vía venosa. Mientras el anestésico local se mantiene en el miembro que está aislado por el torniquete neumático, se distribuye por los vasos sanguíneos y actúa directamente en todos los tejidos de ese miembro. El efecto en los nervios produce la anestesia de todo el miembro, sin que el anestésico local llegue a la circulación general, gracias al torniquete. Al terminar la cirugía, se libera el torniquete para que el anestésico local remanente pase a torrente circulatorio y sea metabolizado por el organismo. En general, se recomienda liberar cuidadosamente el torniquete y observar al paciente durante ese período, para detectar a tiempo los signos de toxicidad sistémica que pueden aparecer.
Anestesia general: Se produce un estado de inconsciencia mediante la administración de fármacos hipnóticos por vía intravenosa (Anestesia total intravenosa), inhalatoria (Anestesia total inhalada) o por ambas a la vez (balanceada). Actualmente se realiza combinación de varias técnicas, en lo que se llama anestesia multimodal. Los componentes fundamentales que se deben garantizar durante una anestesia general son: hipnosis, analgesia, amnesia, control autonómico y relajación muscular. La anestesia general persigue varios objetivos:
Analgesia o abolición del dolor, para lo cual se emplean fármacos analgésicos;
Protección del organismo a reacciones adversas causadas por el dolor, como la reacción vagal; para ello, se emplean fármacos anticolinérgicos como la atropina u otros;
Pérdida de conciencia mediante fármacos hipnóticos o inductores del sueño, que duermen al paciente, evitan la angustia y suelen producir cierto grado de amnesia;
Relajación muscular mediante fármacos relajantes musculares, derivados del curare para producir la inmovilidad del paciente, reducir la resistencia de las cavidades abiertas por la cirugía y permitir la ventilación mecánica artificial mediante aparatos respiradores que aseguran la oxigenación y la administración de anestésicos volátiles en la mezcla gaseosa respirada.
Fármacos empleados[editar]
Anestesia general
En la anestesia general se emplean:
Hipnóticos: Por vía intravenosa se utilizan propofol, tiopental, etomidato, midazolam y ketamina. Por vía respiratoria se emplea el halotano, isoflurano, desflurano, sevoflurano (todos compuestos halogenados) y el óxido nitroso (N2O)
Analgésicos mayores: Opioides naturales (morfina) o sintéticos (fentanilo, petidina, alfentanilo y remifentanilo)
Relajantes musculares (miorrelajantes): 1)-No despolarizantes:Derivados del curare (Tubocurarina, Metacurina, Doxacurio, Pancuronio, Pipecuronio, Galamina, Rocuronio, Atracurio, vecuronio, mivacurio, cisatracurio) y 2)-Despolarizantes (succinilcolina, Decametonio).
Otras sustancias: anticolinérgicos (atropina), benzodiazepinas (midazolam o diazepam) y anticolinesterásicos (Neostigmina, Pridostigmina y Edrofonio), que revierten el efecto de los relajantes musculares.
Anestésicos locales
Artículo principal: Anestésico local
En la anestesia local se emplean:
Grupo éster, prácticamente no se utilizan en la actualidad, por la menor duración de su efecto y por producir más fenómenos alérgicos que los del grupo amida. Pertenecen al grupo éster los siguientes fármacos: cocaína, benzocaína, procaína, tetracaína y clorprocaína.
Grupo amida, presentan múltiples ventajas respecto a los anteriores, sobre todo una menor incidencia de efectos secundarios. Pertenecen a este grupo: lidocaína, mepivacaína, prilocaína, levobupivacaína, bupivacaína y ropivacaína, introducido recientemente. SCAtm
Intraoperatorio[editar]
El intraoperatorio consiste en la inducción de la anestesia, en su mantenimiento y en el despertar al finalizar la intervención. Asimismo, el anestesiólogo se ocupa del control y mantenimiento de las constantes: ECG (electrocardiograma) continuo, presión arterial, saturación de oxígeno (pulsioximetría) y capnografía como monitorización estándar. En casos de cirugías de alto riesgo o enfermos con patología de base grave, puede ser necesario una monitorización más cruenta como catéteres de presión venosa central, monitorización de la presión de la arteria pulmonar y gasto cardíaco mediante un catéter de Swan-Ganz. Al mismo tiempo puede ser necesario prescribir análisis urgentes intraoperatorios, sobre todo en cirugías muy agresivas, como puede ser el trasplante de hígado o de pulmón. Según estas analíticas debe prescribir transfusiones de productos sanguíneos: concentrados de hematíes, plasma o plaquetas. También puede ser necesario administrar iones: sodio, potasio o calcio.
Despertar intraoperatorio[editar]
El despertar intraoperatorio (DIO) es el estado en el que el paciente es consciente de hechos ocurridos durante una operación bajo anestesia general y los recuerda, es decir, puede narrar esos hechos una vez terminado el procedimiento. El paciente que tiene un DIO suele tener percepciones auditivas (las visuales son raras), sentir de parálisis y/o dolor. Esto le provoca angustia, indefensión, desamparo o pánico. A medio plazo, el DIO provoca trastornos psicológicos/psiquiátricos. El despertar intraoperatorio se debe a una insuficiente cantidad de anestesia. Con respecto a la incidencia, esta se ubica entre el 0,1 y 0,2 % (es decir, 1 ó 2 casos por cada mil pacientes anestesiados). Esta incidencia puede aumentar hasta el 1% en pacientes de riesgo. Los factores de riesgo se clasifican en relacionados con el paciente, con la técnica anestésica y el tipo de intervención quirúrgica.1
Postoperatorio[editar]
En la etapa postoperatoria es importante controlar al paciente que ha sido operado. Esto se lleva a cabo, durante algunas horas, en una sala con monitorización que se conoce con el nombre de sala de Recuperación. Algunos enfermos necesitan ser vigilados intensivamente en el posoperatorio inmediato y son trasladados a salas especializadas en cuidados intensivos donde muchas de ellas son dirigidas por Anestesiólogos (REAs, de Reanimación). El posoperatorio inmediato es responsabilidad del equipo de Recuperación especialmente del Anestesiólogo que recibe al paciente, se evalúa con escalas o score como el Aldrete cuya valoración es de capital importancia para la toma de decisiones y del destino del paciente.

Ha recibido 1583 puntos

Vótalo:

LIBROS (2400 a.C)

12. LIBROS (2400 a.C)

https://www.youtube.com/watch?v=4h7r81iG-a8

Un libro (del latín liber, libri) es una obra impresa, manuscrita o pintada en una serie de hojas de papel, pergamino, vitela u otro material, unidas por un lado (es decir, encuadernadas) y protegidas con tapas, también llamadas cubiertas. Un libro puede tratar sobre cualquier tema. Según la... Ver mas
Un libro (del latín liber, libri) es una obra impresa, manuscrita o pintada en una serie de hojas de papel, pergamino, vitela u otro material, unidas por un lado (es decir, encuadernadas) y protegidas con tapas, también llamadas cubiertas. Un libro puede tratar sobre cualquier tema.
Según la definición de la Unesco,1 un libro debe poseer 49 o más páginas (25 hojas o más), pues desde cinco hasta 48 páginas sería un folleto (desde tres hasta 24 hojas), y desde una hasta cuatro páginas se consideran hojas sueltas (en una o dos hojas).
También se llama "libro" a una obra de gran extensión publicada en varias unidades independientes, llamados "tomos" o "volúmenes". Otras veces se llama también "libro" a cada una de las partes de una obra, aunque físicamente se publiquen todas en un mismo volumen (ejemplo: Libros de la Biblia).
Hoy en día, no obstante, esta definición no queda circunscrita al mundo impreso o de los soportes físicos, dada la aparición y auge de los nuevos formatos documentales y especialmente de la World Wide Web. El libro digital o libro electrónico, conocido como e-book, está viendo incrementado su uso en el mundo del libro y en la práctica profesional bibliotecaria y documental. Además, el libro también puede encontrarse en formato audio, en cuyo caso se denomina audiolibro.
Índice [ocultar]
1 Historia
1.1 Comunicación oral y formas rudimentarias
1.2 La escritura
1.3 China
1.4 Corea
1.5 Egipto
1.6 Roma
2 El libro antiguo
2.1 El auge del libro
2.2 La censura de libros
3 Confección de un libro
4 El libro electrónico
5 El libro como indicador de celebridad
6 Partes del libro
7 Tipos de libros
8 Véase también
9 Referencias
9.1 Bibliografía
10 Enlaces externos
Historia[editar]
Artículo principal: Historia del libro

Libros antiguos en la biblioteca de Merton College (Universidad de Oxford, Reino Unido).
Desde los orígenes, la humanidad ha tenido que hacer frente a una cuestión fundamental: la forma de preservar y transmitir su cultura, es decir, sus creencias y conocimientos, tanto en el espacio como en el tiempo.
El planteamiento de esta cuestión supone: por un lado, determinar la forma de garantizar la integridad intelectual del contenido de la obra y la conservación del soporte en el que fue plasmada, y por otro, encontrar el medio por el cual se mantendrá inalterada la intención o finalidad para la cual se concibió.
Los orígenes de la historia del libro se remontan a las primeras manifestaciones pictóricas de nuestros antepasados, la pintura rupestre del hombre del paleolítico. Con un simbolismo, posiblemente cargado de significados mágicos, estas pinturas muestran animales, cacerías y otras escenas cotidianas del entorno natural del hombre antiguo, que trataba de dominar las fuerzas adversas de la naturaleza capturando su esencia mediante su representación. Son el más antiguo precedente de los primeros documentos impresos de que se tiene memoria.
Comunicación oral y formas rudimentarias[editar]
Las señales gestuales fueron la primera forma de expresar y transmitir mensajes. La palabra hablada es la manera más antigua de contar historias. Mediante fórmulas de valor mnemotécnico2 se estructuraban narraciones, que pasaban de generación en generación como valiosa herencia cultural de los más diversos grupos humanos. Dichas reglas mnemotécnicas ayudaban tanto a la memorización como a la difusión de los relatos. Es el caso de los poemas homéricos, que han merecido valiosos estudios sobre el particular. Posiblemente, gran parte de las tradiciones y leyendas han tenido semejante inicio. Esta transmisión oral tenía el inconveniente de los «ruidos» que deformaban el mensaje. La mayoría de las veces era el narrador (rapsoda, aeda, juglar) quien en función de sus intereses la deformaba de una u otra forma.
La escritura[editar]
Cuando los sistemas de escritura fueron inventados en las antiguas civilizaciones, el hombre utilizó diversos soportes de escritura: tablillas de arcilla, ostracon, placas de hueso o marfil, tablas de madera, papiros, tablillas enceradas, planchas de plomo, pieles curtidas, etc.
La escritura fue el resultado de un proceso lento de evolución con diversos pasos: imágenes que reproducían objetos cotidianos (pictografía); representación mediante símbolos (ideografía); y la reproducción de sílabas y letras.
Los más antiguos vestigios de escritura se encuentran, hacia finales del IV milenio a. C., en el Antiguo Egipto, con jeroglíficos, y la antigua Mesopotamia, mediante signos cuneiformes (escritura cuneiforme; utilizaban una varilla con sección triangular, que al hendir en placas de arcilla, dejaba una marca en forma de cuña). La usaron los sumerios, acadios, asirios, hititas, persas, babilonios etc. La escritura egipcia, que perduró más de tres milenios, mediante jeroglíficos, representaba ideas abstractas, objetos, palabras, sílabas, letras y números. Evolucionó en las escrituras hierática y demótica. Otros pueblos, como los hititas y los aztecas también tuvieron tipos propios de escritura.
China[editar]
La escritura china mas antigua que se conoce son 50000 inscripciones sobre conchas de tortuga que incorporan 4500 caracteres distintos, y data del 1400 a. C. en el yacimiento de Xiaotun, en la provincia de Henan. Pero los primeros libros reconocibles de China corresponden al siglo VI a. C., los jiance o jiandu, rollos de finas tiras de bambú o madera grabados con tinta indeleble y atados con cordel. Estos textos servían principalmente a causas institucionales , era la obra de funcionarios civiles o militares.3 Desde Confucio en adelante (551-479 a. C.) los libros se convirtieron en importantes instrumentos de aprendizaje, se escribieron tratados de filosofía, medicina, astronomía y cartografía. En el período de los reinos combatientes (475-221 a. C.) La seda se usó mucho como soporte para escribir. La tela era ligera, resistente al clima húmedo, absorbía bien la tinta y proporcionaba al texto un fondo blanco, sin embargo era mucho más cara que el bambú, es por esto que en ocasiones se hacía una copia en bambú antes de grabarse en seda los textos importantes. La invención del papel según la tradición china, se atribuye a un eunuco de la corte imperial llamado Cai Lin en el 105 d. C. Usando nuevos ingredientes (trapos viejos, cáñamo, corteza de árbol y redes de pescar) creó un metodo de fabricación de papel muy similar al que se usa hoy en día. Pero el papel tardó cientos de años en reemplazar al bambú y la seda, fue hasta finales del siglo II d. C. que la corte imperial lo usó en cantidades importantes. Esta innovación no se propagó fuera de China hasta el 610 d. C. aproximadamente, y alcanzó Europa a través de España hasta el siglo XII. A mediados del siglo VIII los chinos inventaron la impresión xilográfica, o el grabado en madera, y la necesidad de reproducir un gran número de textos e imágenes budistas, calendarios, manuales de adivinación y diccionarios promovió una rápida y temprana propagación de la xilografía. El primer libro impreso chino que se ha encontrado es el Sutra del diamante del 868 d. C. Los impresores chinos crearon los tipos móviles hacia el siglo XI, el escritor chino Ch'en Kua (1030-1095) narra la historia de esta invención en su libro de cosas vistas y oídas (Mengshi Pitan), según el escritor el herrero JenTsung de la dinastía de los Song del norte entre 1041-1049 logró crear caracteres móviles, para esto utilizó arcilla endurecida al fuego sobre la cual había grabado unos caracteres móviles que fijo sobre una plancha de hierro impregnada de resina de pino, cera y cenizas. También se le atribuye la creación de una mesa giratoria para guardar los caracteres, esta técnica se llamaba tipografía tablearia. Hacia el 1300 Wang- Tcheng, un técnico agrónomo, emplazó la arcilla por madera de azufaifo, que era muco mas dura. Pero este avance no revolucionó la imprenta hasta el punto que lo hizo Gutenberg en Europa 400 años despues. A diferencia de las lenguas europeas, el chino escrito requiere miles de caracteres únicos, lo que hace mucho más eficaz los bloques de madera individuales que los enormes conjuntos de tipos reutilizables. En contraste con el declive de las artes de los escribas en occidente en los siglos que siguieron a la creación de la imprenta de tipos moviles, la caligrafía china conservó su prestigio, era un arte. No obstante, a finales del siglo XV, China había producido más libros que el resto del mundo junto. Los árabes aprendieron la técnica para fabricar papel de sus contactos con China en el siglo VIII, y este se introdujo en Europa en el siglo XII a través de la España musulmana.4
Corea[editar]
La obra xilográfica más antigua encontrada hasta nuestros días es el Dharani Sutra de Corea, datado en el 751 a. C., aunque no se sabe quién fue el inventor de la xilografía los chinos y coreanos fueron los que impulsaron la impresión xilográfica, principalmente para editar textos religiosos. El budismo chino y coreano fue el vehículo que trasmitió la xilografía a Japón. Pero Corea realizó muchos otros avances que revolucionaron la manera de imprimir y en consecuencia el libro. Entre 1234 y 1239 los coreanos que se habían refugiado en la isla de Gwanghwa, debido a la invasión mongol, no disponían de madera dura fue entonces que imprimieron 28 ejemplares de los 50 volúmenes del Go geum sang jeong ye mun con caracteres móviles metálicos. La obra del año 1239 describe el método utilizado y termina diciendo : impreso para la eternidad con caracteres de nueva fabricación. Mas tarde el rey Taejong puso en funcionamiento un taller que contribuía a la difusión de la escritura y en 1403, el tercer año de su reinado, se restableció la fundición nacional, el Jujaso, donde se fabricaban caracteres móviles de imprenta, realizó la primera fundición de tipos móviles en bronce. Cabe señalar que la invención de la tipografía coreana es de primordial importancia para la religión, particularmente el budismo, el confucionismo, y el taoísmo.5
Durante el reinado del tercer hijo de Taejong, Sejong aumentó el número de centros dedicados a la enseñanza. En la capital existían cuatro escuelas, un colegio para el pueblo y una escuela para la familia real y sus parientes. El libro se convirtió en la herramienta primordial de los esfuerzos de alfabetización que, incluso llegaron a las provincias y pueblos lejanos. Los niños varones tenían que seguir las clases que les inculcaban las nociones básicas como la escritura y la lectura. Los caracteres fueron mejorando con el tiempo, buscaban una forma más cuadrada y más regular que los precedentes, facilitando así la composición. Durante la invasión japonesa (1592-1598) un general japonés llevó caracteres móviles y libros a Japón, así Japón pudo desarrollar su imprenta, en cambio, la imprenta coreana retrocedió a partir de ese momento, se volvió a la madera para la fabricación de tipos móviles y cada la producción de libros decayó.6 Sin duda alguna la dinastía Joseon fue el gran periodo para los libros coreanos, se sabe de 32 fundiciones de caracteres móviles metálicos y más de 350 modelos diferentes. A pesar de las dificultades Corea supo desarrollar e incluso exportar sus técnicas de imprenta. China no utilizó caracteres móviles hasta finales del siglo XV, en 1490, por su parte, Japón adoptó la técnica tipográfica coreana a finales del siglo XVI en 1592.
Egipto[editar]
Egipto creó el papiro y lo exportó a todo el mediterráneo, se usaba para plasmar textos en Egipto, Grecia y Roma. La fabricación del papiro era complicada y dado que las láminas de papiro estaban hechas de dos capas superpuestas, por cada cara discurría una veta distinta, de ahí que se denomine recto donde el grano discurría de forma horizontal y verso en donde el grano discurría en vertical, sin embargo solo se escribía en la cara interna que era la más lisa. Las láminas se pegaban para hacer un rollo. A partir del siglo I d. C. El pergamino comenzó a competir con el papiro, se cree que surgió en Pérgamo, en la actual Turquía. El pergamino tenía la ventaja de resistir condiciones de humedad, era más duradero y podía doblarse sin romperse, también podía raparse para limpiarlo y reciclarlo. Es muy poco lo que se conoce de las bibliotecas egipcias, un pequeño testimonio es el templo de Horus, donde en uno de los muros están los títulos de 37 libros que eran parte de las bibliotecas.7 Grecia La escritura alfabética hizo más accesible la lectura y la escritura. El alfabeto griego se desarrolló en el siglo VI y V a. C., era puramente fonético a diferencia de los ideogramas chinos, un erudito chino podía dedicar toda su vida a dominar miles de caracteres, en comparación, el alfabeto griego podía aprenderse en unos días. El uso de la escritura se incrementó en Atenas hacia el siglo V a. C.8
Roma[editar]
En la Roma imperial los escritos podían encontrarse en todas partes. La administración cotidiana produjo un flujo constante de documentos, la alfabetización rudimentario era habitual, incluso en las clases bajas, lo que provocó que en el siglo I d. C. hubiera un crecimiento del público lector, ya no se escribía para un círculo de amigo íntimos, sino para un público anónimo, pero la clase alta siguió conservando la cultura literaria oral tradicional. En el siglo III d. C. empezó el declive del imperio romano y las invasiones bárbaras causaron una contracción de la cultura escrita. Muchas instituciones escolásticas cayeron, a excepción de las mantenidas por la iglesia cristiana. Durante los primeros siglos de la era cristiana apareció el códice, una de las más importantes y perdurables revoluciones de la historia del libro. Era más compacto y fácil de manejar que los rollos, podía utilizarse ambas caras del papel, lo que le permitía contener más texto. Aunque el códice tenía claras ventajas, el rollo siguió en uso durante varios siglos. La monarquía inglesa continuó usando rollos para registrar sus leyes hasta la edad media.9
Con el advenimiento de la imprenta, se inicia la época de expansión bibliográfica, de la modernidad y del pensamiento crítico, facilitado en la actualidad con el acceso a la información en otro tipo de fuentes, tales como periódicos, revistas, Internet, etc. No obstante, el valor del libro es perdurable a través del tiempo.
El libro antiguo[editar]
Due sportelli di libreria con scaffali di libri di musica.jpg
El libro comprendido como una unidad de hojas impresas que se encuentran encuadernadas en determinado material que forman un volumen ordenado, puede dividir su producción en dos grandes períodos: desde la invención de la imprenta de tipos móviles hasta 1801, y el periodo de producción industrializada. Así libro antiguo es aquél libro que fue producido en el período manual de la imprenta, es decir que fue impreso con tipos móviles metálicos, estos libros fueron publicados desde la creación de la imprenta en el siglo XV hasta el siglo XIX. La aparición de la imprenta de tipos móviles en 1440, revolucionó el proceso de producción del libro, aunque algunos procesos de la fabricación se mantuvieron igual que en la época de los scriptoria, la imprenta hizo relativamente más sencilla la producción de libros.10 La coexistencia del desarrollo de la imprenta con el comienzo del movimiento humanista y la reforma luterana impulsaron el crecimiento de la industria del libro, puesto que vieron en él un medio de difusión masivo. Pero también existían otras circunstancias que ayudaron a la propagación del libro impreso, el auge de las universidades desarrollo un mercado más amplio para los libros entre las élites intelectuales laicas y religiosas. En medio siglo, la segunda mitad del siglo XV, el libro impreso se convirtió en un importante negocio internacional, los libreros e impresores fueron ante todo empresarios. Pero el libro también debe su expansión a la atención que algunos monarcas y religiosos pusieron en la imprenta, en 1468 el papa Paulo II ordenó imprimir las epístolas de san Jerónimo, por su parte el rey de Francia Carlos VII mandó a Nicolas Jenson a Alemania para aprender la técnica de impresión, con el tiempo los más importantes soberanos en Europa protegieron el desarrollo de la imprenta. La superioridad de la imprenta sobre la xilografía fue incuestionable, la escritura era regular, impresión a ambas caras, rapidez de impresión y la posibilidad de volver a utilizar los caracteres para imprimir otros textos.11 Se puede establecer una cronología del libro antiguo dividida en siglos, tomando como base ciertas características comunes en un siglo determinado:12 Incunables siglo XV Renacentistas siglo XVI Barroco siglo XVII Neoclásico siglo XVIII Ilustrado siglo XIX
El auge del libro[editar]

La producción de libros en Europa crecía desde 500 hasta 1800 por el factor de más de 70 000.13 El evento clave era la invención de la imprenta por Gutenberg en el siglo XV.
No es sino hasta mediados del siglo XVIII, una vez que el libro ha superado las dificultades tecnológicas que le impedían convertirse en una mercancía, que este inicia su rápido ascenso dentro del gusto de las minorías ilustradas de la sociedad.
La invención de la imprenta y el desarrollo del papel, así como la aparición de centros de divulgación de las ideas, permitieron la aparición del escritor profesional que depende de editores y libreros principalmente y ya no del subsidio público o del mecenazgo de los nobles o de los hombres acaudalados.
Además, surge una innovación comercial que convierte al libro en una mercancía de fácil acceso a los plebeyos y los pobres, que consiste en las librerías ambulantes, donde el librero cobra una cantidad mensual para prestar libros, que al ser devueltos le permiten al lector-usuario recibir otro a cambio.
El mismo libro, se convierte en un avance que da distinción a los lectores como progresistas en un siglo en que el progreso es una meta social ampliamente deseada y a la que pueden acceder por igual nobles y plebeyos, creando una meritocracia de nuevo cuño.
A pesar de lo anterior, la minoría que cultiva el gusto por el libro se encuentra entre los nobles y las clases altas y cultivadas de los plebeyos, pues sólo estos grupos sociales saben leer y escribir, lo que representa el factor cultural adicional para el inevitable auge del libro.
La censura de libros[editar]
Otro importante factor que fomentó el aprecio por los libros fue la Censura, que si bien solía ejercerse también en periodos anteriores a los siglos XVII y XVIII, es precisamente en esta época cuando adquiere mayor relevancia, puesto que los libros se producen por millares, multiplicando en esa proporción la posibilidad de difundir ideas que el Estado y la Iglesia no desean que se divulguen.
En 1757 se publicó en París un decreto que condenaba a muerte a los editores, impresores y a los autores de libros no autorizados que se editarán, a pesar de carecer de dicha autorización. La draconiana medida fue complementada con un decreto que prohibía a cualquiera que no estuviera autorizado a publicar libros de tema religioso. En 1774, otro decreto obligaba a los editores a obtener autorizaciones antes y después de publicar cada libro y en 1787, se ordenó vigilar incluso los lugares libres de censura.
Estas medidas lo único que lograron fue aumentar el precio de los libros y obligar a los libreros ambulantes a no incluirlos en su catálogo, con lo cual incrementaron el negocio de los libros prohibidos, que de esta manera tenían un mayor precio y despertaban un mayor interés entre la clase alta que podía pagar el sobrevalor, con lo cual se fomentaron en el exterior, en Londres, Ámsterdam, Ginebra y en toda Alemania, las imprentas que publicaban libros en francés. Así fueron editados hasta la saciedad Voltaire, Rousseau, Holbach, Morell y muchos más, cuyos libros eran transportados en buques que anclaban en El Havre, Boulogne y Burdeos, desde donde los propios nobles los transportaban en sus coches para revenderlos en París.
En tanto la censura se volvió inefectiva e incluso los censores utilizaron dicha censura como medio para promover a astutos escritores y editores. Así, por ejemplo, cuando el todopoderoso ministro Guillaume-Chrétien de Lamoignon de Malesherbes revocó la autorización para publicar L'Encyclopédie, fue él mismo quien protegió a la obra cumbre de la Ilustración para después distribuirla de manera más libre, lo mismo hizo para proteger Emile y La nouvelle Éloise.
Véase también: Censura
Confección de un libro[editar]
Normalmente, un libro es impreso en grandes hojas de papel, donde se alojan 8 páginas a cada lado. Cada una de estas grandes hojas es doblada hasta convertirla en una signatura de 16 páginas. Las signaturas se ordenan y se cosen por el lomo. Luego este lomo es redondeado y se le pega una malla de tela para asegurar las partes. Finalmente las páginas son alisadas por tres lados con una guillotina y el lomo pegado a una tapa de cartón. Toda esta tarea se realiza en serie, inclusive la encuadernación.
En el caso de que las hojas no sean alisadas mediante un proceso de corte, se habla de un libro intonso.
Las imprentas más modernas pueden imprimir 16, 32 y hasta 64 páginas por cara de grandes hojas, luego, como se mencionara más arriba, se las corta y se las dobla. Muchas veces el texto de la obra no alcanza a cubrir las últimas páginas, lo que provoca que algunos libros tengan páginas vacías al final del mismo, aunque muchas veces son cubiertas con propaganda de la editorial sobre textos del mismo autor o inclusive otros de su plantilla.
Los importantes avances en desarrollo de software y las tecnologías de impresión digital han permitido la aplicación de la producción bajo demanda (en inglés el acrónimo P.O.D.) al mundo del libro. Esto está permitiendo eliminar el concepto de "Libro Agotado" al poder reimprimirse títulos desde un sólo ejemplar, y se está fomentando la edición de libros en tiradas muy cortas que antes no eran rentables por los medios tradicionales.
Cómo aplicación más innovadora, las librerías electrónicas más reconocidas están además ofertando a todo el mundo libros que no son fabricados hasta que son vendidos. Esto es posible sólo por estar dados de alta en los sistemas de producción de compañías internacionales como Lightning Source, Publidisa, Booksurge, Anthony Rowe, etc.
El libro electrónico[editar]
Artículo principal: Libro electrónico
A finales de 1971 comenzó a desarrollarse lo que hoy denominamos libro digital o electrónico. Michael Hart fue el impulsor del Proyecto Gutenberg, que consistía en la creación de una biblioteca digital totalmente gratis, donde podíamos encontrar obras de autores como Shakespeare, Poe y Dante entre otros, todas ellas obras de dominio público. En 1981 se produce un importante avance, ya que sale a la venta el primer libro electrónico: Random House's Electronic Dictionary. Sin embargo, fue en marzo de 2001 cuando el libro digital (también conocido como eBook) experimentó su máxima expansión gracias al novelista Stephen King, quien lanzó al mercado a través de la red su novela Riding the Bullet. La obra, en apenas 48 horas, vendió 400 000 copias, al precio de dos dólares y medio la copia.14 El mes siguiente Vladímir Putin también sacó a través de Internet sus memorias.
Desde este momento comenzaron a aparecer varias editoriales electrónicas y muchas tiendas virtuales empezaron a incorporar libros electrónicos en sus catálogos.
El libro como indicador de celebridad[editar]
En el año 2000 se recogían los siguientes datos: “Si la celebridad de un individuo consiste en que se escriba un libro sobre él, [...] Jesucristo es aún el personaje que goza de más fama en el mundo actual”, dice el periódico británico The Guardian. Una investigación que tomó como base los libros de la Biblioteca del Congreso de Estados Unidos, con sede en Washington, D.C., reveló la existencia de 17 239 obras acerca de Jesús, casi el doble que de William Shakespeare, quien alcanza el segundo lugar, con 9801. Vladimir Lenin resulta el tercero, con 4492, seguido de Abraham Lincoln, con 4378, y de Napoleón I, con 4007. El séptimo puesto, con 3595, lo ocupa María, la madre de Jesús, quien es la única mujer entre los treinta principales. La siguiente es Juana de Arco, con 545. Encabeza la nómina de compositores Richard Wagner, tras quien vienen Mozart, Beethoven y Bach. Picasso es el número uno de los pintores, seguido de Leonardo da Vinci y Miguel Ángel. Da Vinci, sin embargo, se lleva la palma en la lista de científicos e inventores, superando a Charles Darwin, Albert Einstein y Galileo Galilei. “No figura ningún personaje vivo en los treinta primeros lugares”, agrega el rotativo.15
Partes del libro[editar]
Artículo principal: Partes del libro
Sobrecubierta: No todos los libros la tienen, pero es relativamente frecuente.
Cubierta: se llama también "pasta" es consistente. Constituye el aspecto externo del libro y se extienden por la cubierta, lomo y la contracubierta.
Lomo: es donde se imprimen los datos de título, número o tomo de una colección, el autor, logotipo de la editorial, etc.
Guardas: hojas que unen las tapas con el resto del libro.
Anteportada o portadilla: va antes de la portada y se pone el título.
Contraportada: Página par posterior a la portadilla, generalmente blanca.
Portada: se indican los datos del libro.
Página de derechos de propiedad o de créditos: Reverso de la portada. Es la página de propiedad literaria o copyright, editor, fechas de las ediciones del libro, reimpresiones, depósito legal, título en original si es una traducción, créditos de diseño, etc.
Hojas de cortesía o de respeto: folios en blanco que se colocan al principio y al final del libro.
Cuerpo de la obra: conjunto de hojas que constituyen el texto del libro.
Página: Cada una de las hojas con anverso y reverso numerados.
Cita
Dedicatoria (Texto con el cual el autor dedica la obra, se suele colocar en el anverso de la hoja que sigue a la portada. No confundir con dedicatoria autógrafa del autor que es cuando el autor, de su puño y letra, dedica la obra a una persona concreta.)
Paratexto
Epígrafe
Prólogo o introducción: Es el texto previo al cuerpo literario de la obra.
Índice: es una lista ordenada que muestra los capítulos, artículos materias u otros elementos del libro, etc.
Prefacio = Avant-propos
Preámbulo
Presentación
Capítulo
Bibliografía
Colofón
Epílogo
Biografía: En algunos libros se suele agregar una página con la biografía del autor o ilustrador de la obra.
Tipos de libros[editar]
De acuerdo con el contenido los libros se pueden clasificar en:
Científicos
Literatura y lingüísticos
De viaje
Biografías
Libro de texto
Libros de gran formato (Coffee Table Book)
De referencia o consulta
Monografías
Recreativos
Poéticos
En las bibliotecas se suele utilizar el Sistema Dewey de clasificación por materias.

Ha recibido 1501 puntos

Vótalo:

BOMBILLA ELÉCTRICA (1879)

13. BOMBILLA ELÉCTRICA (1879)

https://www.youtube.com/watch?v=eEI1NIhJv04

Una lámpara eléctrica es un dispositivo que produce luz a partir de energía eléctrica, esta conversión puede realizarse mediante distintos métodos como el calentamiento por efecto Joule de un filamento metálico, por fluorescencia de ciertos metales ante una descarga eléctrica o por otros... Ver mas
Una lámpara eléctrica es un dispositivo que produce luz a partir de energía eléctrica, esta conversión puede realizarse mediante distintos métodos como el calentamiento por efecto Joule de un filamento metálico, por fluorescencia de ciertos metales ante una descarga eléctrica o por otros sistemas. En la actualidad se cuenta con tecnología para producir luz con eficiencias del 10 al 70%.
La creacion de la primera lámpara eléctrica incandescente se atribuye generalmente a Thomas Alva Edison que presentó el 21 de octubre de 1879 una lámpara práctica y viable, que lució durante 48 horas ininterrumpidas. El 27 de enero de 1880 le fue concedida la patente, con el número 223.898. Otros inventores también habían desarrollado modelos que funcionaban en laboratorio, incluyendo a Joseph Swan, Henry Woodward, Mathew Evans, James Bowman Lindsay, William Sawyer y Humphry Davy. Cabe recordar que el alemán, Heinrich Göbel ya había registrado su propia bombilla incandescente en 1855, mucho antes por tanto que Thomas A. Edison. Tiempo después, pero siempre antes que a Edison, el 11 de julio de 1874 se le concedió al ingeniero ruso Aleksandr Lodygin la patente nº1619 por una bombilla incandescente. El inventor ruso utilizó un filamento de carbono.
La lámpara eléctrica es uno de los inventos más utilizados por el hombre desde su creación hasta la fecha. Según un ranking de la revista Life es la segunda más útil de las invenciones del siglo XIX.
Tipos de lámparas eléctricas[editar]
Desde el desarrollo de la primera lámpara eléctrica incandescente a finales del siglo XIX se fueron sucediendo diversos e innovadores sistemas:
Lámpara incandescente
Lámpara fluorescente compacta
Lámpara de haluro metálico
Lámpara de neón
Lámpara de descarga
Lámpara de plasma
Lámpara de inducción
Lámpara de vapor de sodio
Lámpara de vapor de mercurio
Lámpara de deuterio
Lámpara xenón
Flash (fotografía)
Diodo emisor de luz
Lámpara LED
Luminaria fluorescente

Ha recibido 1412 puntos

Vótalo:

ORDENADORES Y PROGRAMAS (1837/1936)

14. ORDENADORES Y PROGRAMAS (1837/1936)

https://www.youtube.com/watch?v=h1wRsbwnvDI

La computadora1 2 (del inglés: computer; y este del latín: computare, 'calcular'), también denominada computador3 1 u ordenador4 5 (del francés: ordinateur; y éste del latín: ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Un... Ver mas
La computadora1 2 (del inglés: computer; y este del latín: computare, 'calcular'), también denominada computador3 1 u ordenador4 5 (del francés: ordinateur; y éste del latín: ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información conveniente y útil. Un ordenador está formado, físicamente, por numerosos circuitos integrados y otros muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con suma rapidez y bajo el control de un programa.
Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables, gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etc.). Una no funciona sin la otra.
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento, una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones aritmético-lógicas) y los dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un programa.
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, esto la convierte en una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es calcular limitadamente). Es así que, sobre la base de datos de entrada, puede realizar operaciones y resolución de problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería, medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o posibles sin su intervención.
Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.
Si bien esta máquina puede ser de dos tipos diferentes, analógica o digital, el primer tipo es usado para pocos y muy específicos propósitos; la más difundida, utilizada y conocida es la computadora digital (de propósitos generales); de tal modo que en términos generales (incluso populares), cuando se habla de "la computadora" se está refiriendo a computadora digital. Las hay de arquitectura mixta, llamadas computadoras híbridas, siendo también éstas de propósitos especiales.
En la Segunda Guerra mundial se utilizaron computadoras analógicas mecánicas, orientadas a aplicaciones militares, y durante la misma se desarrolló la primera computadora digital, que se llamó ENIAC; ella ocupaba un enorme espacio y consumía grandes cantidades de energía, que equivalen al consumo de cientos de computadores actuales (PC’s).6 Los computadores modernos están basados en circuitos integrados, miles de millones de veces más veloces que las primeras máquinas, y ocupan una pequeña fracción de su espacio. 7
Computadoras simples son lo suficientemente pequeñas para residir en los dispositivos móviles. Las computadoras portátiles, tales como tabletas, netbooks, notebooks, ultrabooks, pueden ser alimentadas por pequeñas baterías. Computadoras personales en sus diversas formas son iconos de la Era de la información y son lo que la mayoría de la gente considera como "ordenador". Sin embargo, los ordenadores integrados se encuentran en muchos dispositivos actuales, tales como reproductores MP4; teléfonos celulares; aviones de combate, y, desde juguetes hasta robot industriales.
Índice [ocultar]
1 Historia
1.1 Cronología
2 Componentes
2.1 Unidad central de procesamiento
2.2 Memoria primaria
2.3 Periféricos de Entrada, de Salida o de Entrada/Salida
2.4 Buses
3 Otros conceptos
4 Etimología de la palabra ordenador
5 Véase también
5.1 Historia
5.2 Tipos de computadoras
5.3 Componentes y periféricos
5.4 Otros
6 Referencias
7 Enlaces externos
Historia[editar]
Artículo principal: Historia de la computación
Lejos de ser un invento de alguien en particular, el ordenador es el resultado evolutivo de ideas y realizaciones de muchas personas relacionadas con áreas tales como la electrónica, la mecánica, los materiales semiconductores, la lógica, el álgebra y la programación.
Cronología[editar]
A continuación, se presentan resumidamente los principales hitos en la historia de los ordenadores, desde las primeras herramientas manuales para hacer cálculos hasta las modernas computadoras de bolsillo.
2700 a. C.: se utiliza el ábaco en antiguas civilizaciones como la china o la sumeria, la primera herramienta para realizar sumas y restas.
Hacia 830: el matemático e ingeniero persa Musa al-Juarismi inventó el algoritmo, es decir, la resolución metódica de problemas de álgebra y cálculo numérico mediante una lista bien definida, ordenada y finita de operaciones.
1614: el escocés John Napier inventa el logaritmo neperiano, que consiguió simplificar el cálculo de multiplicaciones y divisiones reduciéndolo a un cálculo con sumas y restas.
1620: el inglés Edmund Gunter inventa la regla de cálculo, instrumento manual utilizado desde entonces hasta la aparición de la calculadora electrónica para hacer operaciones aritméticas.
1623: el alemán Wilhelm Schickard inventa la primera máquina de calcular, cuyo prototipo desapareció poco después.
1642: el científico y filósofo francés Blaise Pascal inventa una máquina de sumar (la pascalina), que utilizaba ruedas dentadas, y de la que todavía se conservan algunos ejemplares originales.
1671: el filósofo y matemático alemán Gottfried Wilhelm Leibniz inventa una máquina capaz de multiplicar y dividir.
1801: el francés Joseph Jacquard inventa para su máquina de tejer brocados una tarjeta perforada que controla el patrón de funcionamiento de la máquina, una idea que sería empleada más adelante por los primeros ordenadores.
1833: el matemático e inventor británico Charles Babbage diseña e intenta construir la primera computadora, de funcionamiento mecánico, a la que llamó la "máquina analítica". Sin embargo, la tecnología de su época no estaba lo suficientemente avanzada para hacer realidad su idea.
1890: el norteamericano Hermann Hollerith inventa una máquina tabuladora aprovechando algunas de las ideas de Babbage, que se utilizó para elaborar el censo de EEUU. Hollerith fundó posteriormente la compañía que después se convertiría en IBM.
1893: el científico suizo Otto Steiger desarrolla la primera calculadora automática que se fabricó y empleó a escala industrial, conocida como la Millonaria.
1936: el matemático y computólogo inglés Alan Turing formaliza los conceptos de algoritmo y de máquina de Turing, que serían claves en el desarrollo de la computación moderna.
1938: El ingeniero alemán Konrad Zuse completa la Z1, la primera computadora que se puede considerar como tal. De funcionamiento electromecánico y utilizando relés, era programable (mediante cinta perforada) y usaba sistema binario y lógica boleana. A ella le seguirían los modelos mejorados Z2, Z3 y Z4.
1944: En Estados Unidos la empresa IBM construye la computadora electromecánica Harvard Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Fue la primera computadora creada en EEUU.
1944: En Inglaterra se construyen los ordenadores Colossus (Colossus Mark I y Colossus Mark 2), con el objetivo de descifrar las comunicaciones de los alemanes durante la Segunda Guerra Mundial.
1947: En la Universidad de Pensilvania se construye la ENIAC (Electronic Numerical Integrator And Calculator), que funcionaba a válvulas y fue la primera computadora electrónica de propósito general.
1947: en los Laboratorios Bell, John Bardeen, Walter H. Brattain y William Shockley inventan el transistor.
1951: comienza a operar la EDVAC, concebida por John von Neumann, que a diferencia de la ENIAC no era decimal, sino binaria, y tuvo el primer programa diseñado para ser almacenado.
1953: IBM fabrica su primera computadora a escala industrial, la IBM 650. Se amplía el uso del lenguaje ensamblador para la programación de las computadoras. Los ordenadores con transistores reemplazan a los de válvulas, marcando el comienzo de la segunda generación de computadoras.
1957: Jack S. Kilby construye el primer circuito integrado.
1964: La aparición del IBM 360 marca el comienzo de la tercera generación de computadoras, en la que las placas de circuito impreso con múltiples componentes elementales pasan a ser reemplazadas con placas de circuitos integrados.
1971: Nicolette Instruments Corp. lanza al mercado la Nicolette 1080, una computadora de uso científico basada en registros de 20 bits, cuya versatilidad para el cálculo de la Transformada Rápida de Fourier le brinda gran aceptación en el campo de la Resonancia magnética nuclear.
1971: Intel presenta el primer procesador comercial y a la vez el primer chip Microprocesador, el Intel 4004.
1975: Paul Alen y Bill Gates fundan Microsoft.
1976: Steve Jobs, Steve Wozniak, Mike Markkula y otros amigos mas fundan Apple.
1977: Apple presenta el primer computador personal que se vende a gran escala, el Apple II, desarrollado por Steve Jobs y Steve Wozniak.
1981: se lanza al mercado el IBM PC, que se convertiría en un éxito comercial, marcaría una revolución en el campo de la computación personal y definiría nuevos estándares.
1982: Microsoft presenta su sistema operativo MS-DOS, por encargo de IBM.
1983: ARPANET se separa de la red militar que la originó, pasando a un uso civil y convirtiéndose así en el origen de Internet.
1983: Richard Stallman anuncia públicamente el proyecto GNU.
1985: Microsoft presenta el sistema operativo Windows 1.0.
1990: Tim Berners-Lee idea el hipertexto para crear el World Wide Web (www), una nueva manera de interactuar con Internet.
1991: Linus Torvalds comenzó a desarrollar Linux, un sistema operativo compatible con Unix.
2000: aparecen a comienzos del siglo XXI los ordenadores de bolsillo, primero en forma de PDAs, y unos años después en forma de teléfonos inteligentes o smartphones.
Componentes[editar]
Artículo principal: Arquitectura de computadoras
Modelo básico de la arquitectura de von Neumann, en la que se basan todos los ordenadores modernos.
Las tecnologías utilizadas en computadoras digitales han evolucionado mucho desde la aparición de los primeros modelos en los años 1940, aunque la mayoría todavía utiliza la Arquitectura de von Neumann, publicada por John von Neumann a principios de esa década, que otros autores atribuyen a John Presper Eckert y John William Mauchly.
La arquitectura de Von Neumann describe una computadora con cuatro (4) secciones principales: la unidad aritmético lógica, la unidad de control, la memoria primaria, principal o central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales de conductores denominados buses.
Unidad central de procesamiento[editar]
Artículo principal: Unidad central de procesamiento
La unidad central de procesamiento (CPU, por sus siglas del inglés: Central Processing Unit) consta de manera básica de los siguientes tres elementos:

Un típico símbolo esquemático para una ALU: A y B son operandos; R es la salida; F es la entrada de la unidad de control; D es un estado de la salida.
La unidad aritmético lógica (ALU, por sus siglas del inglés: Arithmetic-Logic Unit) es el dispositivo diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas (suma, resta, ...), operaciones lógicas (Y, O, NO), y operaciones de comparación o relacionales. En esta unidad es en donde se hace todo el trabajo computacional.
La unidad de control (UC) sigue la dirección de las posiciones en memoria que contienen la instrucción que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que la próxima instrucción estará ubicada en otra posición de la memoria).
Los registros: de datos, de memoria, registros constantes, de coma flotante, de propósito general, de propósito específico.
Los procesadores pueden constar de además de las anteriormente citadas, de otras unidades adicionales como la unidad de coma flotante.
Memoria primaria[editar]
Véanse también: Jerarquía de memoria, Memoria principal, Memoria (Informática) y RAM.
La memoria principal (MP), conocida como memoria de acceso aleatorio (RAM, por sus siglas del inglés: Random-Access Memory), es una secuencia de celdas de almacenamiento numeradas, donde cada una es un bit o unidad de información. La instrucción es la información necesaria para realizar lo que se desea con el computador. Las «celdas» contienen datos que se necesitan para llevar a cabo las instrucciones, con el computador. El número de celdas varían mucho de computador a computador, y las tecnologías empleadas para la memoria han cambiado bastante; van desde los relés electromecánicos, tubos llenos de mercurio en los que se formaban los pulsos acústicos, matrices de imanes permanentes, transistores individuales a circuitos integrados con millones de celdas en un solo chip se subdividen en memoria estática (SRAM) con seis transistores por bit y la mucho más utilizada memoria dinámica (DRAM) un transistor y un condensador por bit. En general, la memoria puede ser reescrita varios millones de veces (memoria RAM); se parece más a una pizarra que a una lápida (memoria ROM) que sólo puede ser escrita una vez.
Periféricos de Entrada, de Salida o de Entrada/Salida[editar]
Véanse también: Periférico (informática), Periférico de entrada y Periférico de Entrada/Salida.
Los dispositivos de Entrada/Salida (E/S) sirven a la computadora para obtener información del mundo exterior y/o comunicar los resultados generados por el computador al exterior. Hay una gama muy extensa de dispositivos E/S como teclados, monitores, unidades de disco flexible o cámaras web.
Buses[editar]
Las tres unidades básicas en una computadora: la CPU, la MP y el subsistema de E/S, están comunicadas entre sí por buses o canales de comunicación:
Bus de direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,
Bus de control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y desarrollar
Bus de datos, por donde circulan los datos.
Otros conceptos[editar]
En la actualidad se puede tener la impresión de que los computadores están ejecutando varios programas al mismo tiempo. Esto se conoce como multitarea, y es más común que se utilice el segundo término. En realidad, la CPU ejecuta instrucciones de un programa y después tras un breve periodo de tiempo, cambian a un segundo programa y ejecuta algunas de sus instrucciones. Esto crea la ilusión de que se están ejecutando varios programas simultáneamente, repartiendo el tiempo de la CPU entre los programas. Esto es similar a la película que está formada por una sucesión rápida de fotogramas. El sistema operativo es el programa que generalmente controla el reparto del tiempo. El procesamiento simultáneo viene con computadoras de más de un CPU, lo que da origen al multiprocesamiento.
El sistema operativo es una especie de caja de herramientas llena de utilerías que sirven para decidir, por ejemplo, qué programas se ejecutan, y cuándo, y qué fuentes se utilizan (memoria o dispositivos E/S). El sistema operativo tiene otras funciones que ofrecer a otros programas, como los códigos que sirven a los programadores, escribir programas para una máquina sin necesidad de conocer los detalles internos de todos los dispositivos electrónicos conectados.
A 2015 se están empezando a incluir en las distribuciones donde se incluye el sistema operativo, algunos programas muy usados, debido a que es ésta una manera económica de distribuirlos. No es extraño que un sistema operativo incluya navegadores de Internet, procesadores de texto, programas de correo electrónico, interfaces de red, reproductores de películas y otros programas que antes se tenían que conseguir e instalar separadamente.
Los primeros computadores digitales, de gran tamaño y coste, se utilizaban principalmente para hacer cálculos científicos. ENIAC, uno de los primeros computadores, calculaba densidades de neutrón transversales para ver si explotaría la bomba de hidrógeno. El CSIR Mk I, el primer ordenador australiano, evaluó patrones de precipitaciones para un gran proyecto de generación hidroeléctrica. Los primeros visionarios vaticinaron que la programación permitiría jugar al ajedrez, ver películas y otros usos.
La gente que trabajaba para los gobiernos y las grandes empresas también usó los computadores para automatizar muchas de las tareas de recolección y procesamiento de datos, que antes eran hechas por humanos; por ejemplo, mantener y actualizar la contabilidad y los inventarios. En el mundo académico, los científicos de todos los campos empezaron a utilizar los computadores para hacer sus propios análisis. El descenso continuo de los precios de los computadores permitió su uso por empresas cada vez más pequeñas. Las empresas, las organizaciones y los gobiernos empezaron a emplear un gran número de pequeños computadores para realizar tareas que antes eran hechas por computadores centrales grandes y costosos. La reunión de varios pequeños computadores en un solo lugar se llamaba torre de servidores[cita requerida].
Con la invención del microprocesador en 1970, fue posible fabricar computadores muy baratos. Nacen los computadores personales (PC), los que se hicieron famosos para llevar a cabo diferentes tareas como guardar libros, escribir e imprimir documentos, calcular probabilidades y otras tareas matemáticas repetitivas con hojas de cálculo, comunicarse mediante correo electrónico e Internet. Sin embargo, la gran disponibilidad de computadores y su fácil adaptación a las necesidades de cada persona, han hecho que se utilicen para varios propósitos.
Al mismo tiempo, los pequeños computadores fueron casi siempre con una programación fija, empezaron a hacerse camino entre las aplicaciones del hogar, los coches, los aviones y la maquinaria industrial. Estos procesadores integrados controlaban el comportamiento de los aparatos más fácilmente, permitiendo el desarrollo de funciones de control más complejas como los sistemas de freno antibloqueo en los coches. A principios del siglo XXI, la mayoría de los aparatos eléctricos, casi todos los tipos de transporte eléctrico y la mayoría de las líneas de producción de las fábricas funcionan con un computador. La mayoría de los ingenieros piensa que esta tendencia va a continuar.
Hacia finales de siglo XX y comienzos del XXI, los computadores personales son usados tanto para la investigación como para el entretenimiento (videojuegos), pero los grandes computadores todavía sirven para cálculos matemáticos complejos y para otros usos de la ciencia, tecnología, astronomía, medicina, etc.
Tal vez el más interesante "descendiente" del cruce entre el concepto de la PC o computadora personal y los llamados supercomputadores sea la Workstation o estación de trabajo. Este término, originalmente utilizado para equipos y máquinas de registro, grabación y tratamiento digital de sonido, y ahora utilizado precisamente en referencia a estaciones de trabajo (traducido literalmente del inglés), se usa para dar nombre a equipos que, debido sobre todo a su utilidad dedicada especialmente a labores de cálculo científico, eficiencia contra reloj y accesibilidad del usuario bajo programas y software profesional y especial, permiten desempeñar trabajos de gran cantidad de cálculos y "fuerza" operativa. Una Workstation es, en esencia, un equipo orientado a trabajos personales, con capacidad elevada de cálculo y rendimiento superior a los equipos PC convencionales, que aún tienen componentes de elevado coste, debido a su diseño orientado en cuanto a la elección y conjunción sinérgica de sus componentes. En estos casos, el software es el fundamento del diseño del equipo, el que reclama, junto con las exigencias del usuario, el diseño final de la Workstation.[cita requerida]
Etimología de la palabra ordenador[editar]

PC con interfaz táctil.
La palabra española ordenador proviene del término francés ordinateur, en referencia a Dios que pone orden en el mundo ("Dieu qui met de l'ordre dans le monde").8 En parte por cuestiones de marketing, puesto que la descripción realizada por IBM para su introducción en Francia en 1954 situaba las capacidades de actuación de la máquina cerca de la omnipotencia, idea equivocada que perdura hoy en día al considerar que la máquina universal de Turing es capaz de computar absolutamente todo.9 En 1984, académicos franceses reconocieron, en el debate Les jeunes, la technique et nous, que el uso de este sustantivo es incorrecto, porque la función de un computador es procesar datos, no dar órdenes.10 Mientras que otros, como el catedrático de filología latina Jacques Perret, conocedores del origen religioso del término, lo consideran más correcto que las alternativas.8
El uso de la palabra ordinateur se ha exportado a los idiomas de España: el aragonés, el asturiano, el gallego, el castellano, el catalán y el euskera. El español que se habla en América, así como los demás idiomas europeos, como el portugués, el alemán y el neerlandés, utilizan términos derivados del latín computare 'calcular'.
Véase también[editar]
Ver el portal sobre Informática Portal:Informática. Contenido relacionado con Informática.
Hardware
Software
Firmware
Historia[editar]
Anexo:Historia de la computación
Historia del hardware
Historia del hardware de computadora (1960-presente)
Historia de las computadoras personales
Tipos de computadoras[editar]
Computadora analógica
Computadora híbrida
Supercomputadora
Computadora central
Minicomputadora
Microcomputadora
Computadora de escritorio
Computadora personal
Computadora doméstica
Multiseat
Computadora portátil
Tableta (computadora)
Subportátil
PC Ultra Móvil
PDA
Teléfono inteligente
Tabléfono
Cliente (informática)
Cliente liviano
Cliente pesado
Cliente híbrido
Sistema embebido
Componentes y periféricos[editar]
Placa base
Unidad central de procesamiento
Microprocesador
BIOS
Memoria de acceso aleatorio
Memoria de solo lectura
Memoria flash
Bus (informática)
Entrada/salida
Fuente eléctrica
Fuente de alimentación
Teclado
Ratón (informática)
Touchpad
Lápiz óptico
Pantalla táctil
Tableta digitalizadora
Monitor
Impresora
Tarjeta de sonido
Tarjeta gráfica
Unidad de procesamiento gráfico
Disco duro
Disquete
CD-ROM
DVD
Otros[editar]
Caja de computadora
Puerto serie
Puerto paralelo
PS/2 (puerto)
Universal Serial Bus
IEEE 1394
Tarjeta de red
Peripheral Component Interconnect
Hardware
Software
Programa informático
Aplicación informática
Sistema operativo
Sistema de archivos
Internet
Virtualización
World Wide Web

Ha recibido 1320 puntos

Vótalo:

IMPRENTA (1450)

15. IMPRENTA (1450)

https://www.youtube.com/watch?v=dmFZek3v_s4

La imprenta es un método mecánico destinado a reproducir textos e imágenes sobre papel, tela u otros materiales. En su forma clásica, consiste en aplicar una tinta, generalmente oleosa, sobre unas piezas metálicas (tipos) para transferirla al papel por presión. Aunque comenzó como un método... Ver mas
La imprenta es un método mecánico destinado a reproducir textos e imágenes sobre papel, tela u otros materiales. En su forma clásica, consiste en aplicar una tinta, generalmente oleosa, sobre unas piezas metálicas (tipos) para transferirla al papel por presión. Aunque comenzó como un método artesanal, su implantación trajo consigo una revolución cultural.
Más modernamente, la evolución de diversas tecnologías ha dado lugar a diferentes métodos de impresión y reproducción, como son la flexografía, la serigrafía, el huecograbado, el alto grabado, la fotografía electrolítica, la fotolitografía, la litografía, la impresión ófset, la xerografía y los métodos digitales.
Índice [ocultar]
1 Historia
2 Historia de la imprenta moderna
2.1 Primeros impresos
2.2 La imprenta en la electrónica
2.3 La imprenta digital
3 El futuro de la imprenta
4 Véase también
5 Referencias
6 Bibliografía
7 Enlaces externos
Historia[editar]

Sutra del Diamante, hallado en la cueva de Dunhuang (China). Es el documento impreso de fecha conocida más antiguo que se conserva. Fue realizado el 11 de mayo del año 868.1
Ya los romanos tuvieron sellos que imprimían hojas de inscripciones sobre objetos de arcilla alrededor del año 440 a. C. y el 430 a. C. Entre 1041 y 1048, Bi Sheng inventó en China —donde ya existía un tipo de papel de arroz— el primer sistema de imprenta de tipos móviles, a base de complejas piezas de porcelana en las que se tallaban los caracteres chinos; esto constituía un complejo procedimiento por la inmensa cantidad de caracteres que hacían falta para la escritura china. En 1234 artesanos del reino de Koryo (actual Corea), conocedores de los avances chinos con los tipos móviles, crearon un juego de tipos móviles de metal que se anticipó a la imprenta moderna, pero lo usaron raramente.2 Sin embargo, la imprenta moderna no se creó hasta el año 1444 aproximadamente3 , de la mano de Johannes Gutenberg.
En la antigua Europa, muchas personas y poblaciones pretendieron ser parte de este arte; aunque las opiniones apuntan a que fue el alemán Johannes Gutenberg, por las ideas que tenía y la iniciativa de unirse a un equipo de impresores, lo que lo apoya como el inventor de la tipografía. Existe documentación subsecuente que le atribuye la invención aunque, curiosamente, no consta el nombre de Gutenberg en ningún impreso conocido.
Ante la controvertida historia aparecieron a disputar la gloria del llamado "Padre de la Imprenta" los nombres del alemán Mentelin, impresor de Estrasburgo (1410-1478); el italiano Panfilo Castaldi, médico y después tipógrafo en 1470, otro italiano de nombre Aldus, Lorenzo de Coster, de Haarlem, (Países Bajos) (1370-1430). Cada uno tiene un monumento en sus respectivas localidades; sin embargo, perdieron el pleito definitivamente los partidarios de Mentelin y Castaldi.
Una edición que data del año 1502 en Maguncia, Alemania, impresa por Peter Schöffer, sucesor de la imprenta que en el pasado le perteneció a Gutenberg, dice:
...Este libro ha sido impreso en Maguncia, ciudad donde el arte admirable de la tipografía fue inventado en 1450 por el ingenioso Johannes Gutenberg y luego perfeccionado a costa y por obra de Johann Fust y de Peter Schöffer... entre otros...
Historia de la imprenta moderna[editar]

La Biblia de Gutenberg, el mayor trabajo de Gutenberg.
Hasta 1450 y aun en años posteriores, los libros se difundían en copias manuscritas por escritores, muchos de los cuales eran monjes y frailes dedicados exclusivamente al rezo y a la réplica de ejemplares por encargo del propio clero o de reyes y nobles. A pesar de lo que se cree, no todos los monjes copistas sabían leer y escribir. Realizaban la función de copistas, imitadores de signos que en muchas ocasiones no entendían, lo cual era fundamental para copiar libros prohibidos que hablasen de medicina interna o de sexo.[cita requerida] Las ilustraciones y las letras mayúsculas eran producto decorativo y artístico del propio copista, que decoraba cada ejemplar que realizaba según su gusto o visión. Cada uno de sus trabajos podía durar hasta diez años.
En la Alta Edad Media se utilizaba la xilografía en Europa para publicar panfletos publicitarios o políticos, etiquetas, y trabajos de pocas hojas; para ello se trabajaba el texto en hueco sobre una tablilla de madera, incluyendo los dibujos —un duro trabajo de artesanía—. Una vez confeccionada, se acoplaba a una mesa de trabajo, también de madera, y se impregnaban de tinta negra, azul o roja (sólo existían esos colores). Después se aplicaba el papel y con rodillo se fijaba la tinta. El desgaste de la madera era considerable por lo que no se podían hacer muchas copias con el mismo molde. Este tipo de impresión recibe el nombre de xilografía.
Cada impresor fabricaba su propio papel, estampando una marca de agua a modo de firma de impresor. Por estas marcas de agua es por lo que se conocen sus trabajos.

Difusión de imprenta en el siglo XV desde Maguncia, Alemania.

Producción de libros impresos en Europa ca. 1450–1800.4
En este entorno, Gutenberg apostó a que era capaz de hacer a la vez varias copias de la Biblia en menos de la mitad del tiempo de lo que tardaba en copiar una el más rápido de todos los monjes copistas del mundo cristiano y que éstas no se diferenciarían en absoluto de las manuscritas por ellos.
Pidió dinero a Johann Fust, y comenzó su reto sin ser consciente de lo que su invento iba a representar para el futuro de toda la humanidad.
En vez de usar las habituales tablillas de madera, que se desgastaban con el uso, confeccionó moldes en madera de cada una de las letras del alfabeto y posteriormente rellenó los moldes con plomo, creando los primeros tipos móviles. Tuvo que hacer varios modelos de las mismas letras para que coincidiesen todas entre sí: en total, más de 150 tipos, que imitaban la escritura de un manuscrito. Había que unir una a una las letras que se sujetaban en un ingenioso soporte, mucho más rápido que el grabado en madera y considerablemente más resistente al uso.
Como plancha de impresión, amoldó una vieja prensa de vino a la que sujetó el soporte con los tipos móviles con un hueco para las letras mayúsculas y los dibujos. Éstos, posteriormente, serían añadidos mediante el viejo sistema xilográfico y terminados de decorar de forma manual.
Lo que Gutenberg no calculó bien fue el tiempo que le llevaría poner en marcha su nuevo invento, por lo que antes de finalizar el trabajo se quedó sin dinero. Volvió a solicitar un nuevo crédito a Johann Fust y, ante las desconfianzas del prestamista, le ofreció formar una sociedad. Johann Fust aceptó la propuesta y delegó la vigilancia de los trabajos de Gutenberg a su sobrino, Peter Schöffer, quien se puso a trabajar codo a codo con él, al tiempo que vigilaba la inversión de su tío.
Tras dos años de trabajo, Gutenberg volvió a quedarse sin dinero. Estaba cerca de acabar las 150 Biblias que se había propuesto, pero Johann Fust no quiso ampliarle el crédito y dio por vencidos los anteriores, quedándose con el negocio y poniendo al frente a su sobrino, ducho ya en las artes de la nueva impresión como socio-aprendiz de Gutenberg.
Gutenberg salió de su imprenta arruinado y se cuenta que fue acogido por el obispo de la ciudad, el único que reconoció su trabajo hasta su muerte, pocos años después.
Peter Schöffer terminó el cometido que inició su maestro y las Biblias fueron vendidas rápidamente a altos cargos del clero, incluida la Santa Sede, a muy buen precio. Pronto empezaron a llover encargos de nuevos trabajos. La rapidez de la ejecución fue sin duda el detonante de su expansión, puesto que antes la entrega de un solo libro podía posponerse durante años.
Actualmente, se conservan muy pocas "Biblias de Gutenberg" —o de 42 líneas— y, menos aún, completas. En España se conservan dos, una completa en Burgos5 y otra con sólo el Nuevo Testamento en Sevilla.6
En 1449, Johannes Gutenberg ya había impreso el primer libro, el llamado Misal de Constanza, en la imprenta de Mainz, Alemania. La Biblia de Gutenberg no fue simplemente el segundo libro impreso, sino que, además, fue el más perfecto. Su imagen no difiere en absoluto de un manuscrito. El mimo, el detalle y el cuidado con que fue hecho, sólo su inventor pudo habérselo otorgado.
Primeros impresos[editar]
Artículo principal: Incunable

Dos páginas del Catholicon.

Prensa de imprimir de 1811.
Gutenberg, en su labor de impresor, creó su famoso incunable Catholicon, de Juan Balbu de Janna. Pocos años después, imprimió hojas por ambas caras y calendarios para el año 1448. Además, junto a su amigo Fust editaron algunos libritos y bulas de indulgencia y en particular, aquel monumento de la imprenta primitiva, la Biblia de las 42 líneas, en dos tomos de doble folio, de 324 y 319 páginas respectivamente, con espacios en blanco para después pintar a mano las letras capitulares, las alegorías y viñetas que ilustrarían coloridamente cada una de las páginas de la Biblia.
Según las declaraciones de diversos testigos[cita requerida] resulta que, mientras en apariencia fabricaba espejos, Gutenberg se servía de todos los instrumentos, materiales y herramientas necesarios para la secreta imprenta: plomo, prensas, crisoles, etc., con el supuesto pretexto de fabricar con planchas xilográficas de madera unos pequeños devocionarios latinos de título Speculum que eran fabricados en Holanda y Alemania con los títulos de Speculum, Speculum humanae salvationis, Speculum vitae humanae, Speculum salutis, etc. Pero algunos declararon que con el pretexto de imprimir espejos, "Gutenberg, durante cerca de tres años, había ganado unos 100 florines en las cosas de la imprenta."
Por otra parte, puesto que Hungría sería el primer reino que recibiría al renacimiento en Europa luego de Italia, y de esta forma bajo en reinado de Matías Corvino en el siglo XVI se inauguraría la primera imprenta húngara en 1472. Andrés Hess sería llamado a Hungría desde Italia, quien usando el sistema de Gutenberg organizaría la imprenta húngara y haría publicar dos obras: Cronica Hungarorum (La crónica de los húngaros), y el Magnus Basilius: De legendis poëtis - Xenophon: Apologia Socratis (dos obras griegas clásicas en un solo tomo).
Años más tarde y hacia 1500 la situación social cambiaba en Alemania y una guerra civil hizo que en Maguncia los impresores huyeran para evitar caer dentro de la guerra. A los impresores les costó mucho guardar el secreto y los talleres de imprentas se esparcieron por toda Europa.
La imprenta se conoce en América una vez concluida la conquista española. En 1539 el impresor Juan Cromberger monta una filial de su imprenta de Sevilla en Ciudad de México en un local de Juan de Zumárraga. Esta filial estará a cargo de Juan Pablos, que comienza su labor de impresión ese mismo año.7 El cronista Gil González Dávila ha querido decir que la primera obra impresa fue Escala espiritual para llegar al Cielo por San Juan Clímaco en 1532, en su versión traducida del latín por un fraile español, y aunque concuerda en el título del libro con el historiador Dávila Padilla, la fecha de 1532 es equivocada ya que en ese año no había medios para imprimir nada por aquellas tierras.7 El primer libro impreso sería Breve y más compendiosa Doctrina Christiana, escrito por Juan de Zumárraga, en la imprenta de Juan Cromberger gestionada por Juan Pablos en 1539.8
Así inició la más grande repercusión de la imprenta en la cultura de la humanidad. La palabra escrita ahora podía llegar a cualquier rincón, la gente podía tener acceso a más libros y comenzar a preocuparse por enseñar a leer a sus hijos. Las ideas cruzaban las fronteras y el arte de la tipografía fue el medio de difundirlas.
Libros, incunables, ediciones ilustradas con grabados de madera: la mejora de las técnicas y materiales de imprenta llevaron durante cuatro siglos las palabras por todo el mundo. El arte tipográfico evolucionó y llegó a crear obras maestras en la formación y estructuras de libros y ediciones especiales impresas. Actualmente las técnicas de impresión en calidad y volumen han mejorado de forma impresionante, algunas por medio de computadora, olvidándose del arte tipográfico que muchos tipógrafos del mundo se resisten a cambiar.
Pocos inventos han tenido la influencia en el ser humano como la creación de la imprenta, ese antiguo arte que, si va unido a una obra en labor del tipógrafo y a la obra escrita de un buen autor, proporciona una obra de arte completa, lista para conmover en belleza literaria y estética tipográfica al lector, el fin primero y último de la imprenta.
A finales del siglo XIX, se perfeccionó el proceso, gracias a la invención en 1885 de la linotipia, por Ottmar Mergenthaler.
La imprenta en la electrónica[editar]
Los nuevos medios de comunicación aparecieron en un momento de un cambio acelerado y de comunicaciones más veloces y fueron la respuesta a la mayor demanda de información y entretenimiento. Los nuevos sistemas y estructuras nunca borran por completo los anteriores sino que se superponen. Así, las nuevas técnicas de almacenamiento y recuperación de información han necesitado de los medios de impresión en este campo para reagrupar y encontrar nuevas colocaciones, a menudo de carácter más especializado.
La revolución audiovisual se ha presenciado en medio de un diluvio de material de promoción impreso. Todo esto ha traído consigo cambios que afectan al libro; por ejemplo, la composición convencional es ahora tan cara que solamente se justifica en tiradas muy grandes, pero hay una gran variedad de métodos de impresión más económicos, como la fotocopia y la duplicación electrostática.
La imprenta digital[editar]
Nuevos horizontes se desplegaron con la llegada de la impresión digital. El ahorro de tiempo y los costos ofrecidos por las nuevas técnicas digitales valen también para la industria editorial que se beneficia de la rapidez y amplias posibilidades que la impresión digital ofrece:
inversión optimizada: uno de los mayores problemas de la industria editorial es que si el volumen de tirada de un libro no es rentable, ese libro nunca será publicado. Ahora con la impresión digital también las tiradas cortas pueden ser rentables, permitiendo así una mayor "democracia de publicación".
reimpresión: esto significa que no solo será posible obtener un coste muy bajo en el caso de nuevas impresiones, sino también para reimpresiones bajo demanda. Esto permite una ulterior ventaja productiva: producir menos libros para ahorrar gastos y publicar otros en el supuesto caso que venda.
Además de las ventajas directas, la impresión digital nos abre un nuevo mundo: gracias a ella es posible enviar pedidos por correo electrónico, imprimir en línea, copiar textos en cuestión de segundos, hacer comunicaciones rápidas y utilizar formatos universales como el PDF.
El futuro de la imprenta[editar]

Nanography la nueva tecnología, con la calidad y la velocidad de la impresión offset al precio de la impresión digital.
Con la aparición de la tinta electrónica y los conocidos libros electrónicos o eBooks se ha logrado que ya no sea necesario imprimir un libro para poder distribuirlo y por ende leerlo. Diversos dispositivos permiten la compra y adquisición de libros, publicaciones y revistas desde el mismo aparato, lo que reduce de forma notable el costo de producción de la propiedad intelectual además de aportar una solución ecológica. También hay que resaltar el papel de internet como gran medio para distribuir información a través de páginas web y correo electrónico, sustituyendo muchas veces al uso tradicional del papel en ámbitos como la prensa escrita o el correo postal. Por estas razones alguna gente presume un futuro incierto para la imprenta, después de más de cinco siglos jugando un papel fundamental en la historia de la humanidad por la capacidad tangible que tiene de propagar el conocimiento.

Ha recibido 1286 puntos

Vótalo:

PAPEL (SIGLO II a.C)

16. PAPEL (SIGLO II a.C)

https://www.youtube.com/watch?v=l2lPaJYBTSc

El papel es un material constituido por una delgada lámina elaborada a partir de pulpa de celulosa, una pasta de fibras vegetales molidas suspendidas en agua, generalmente blanqueada, y posteriormente secada y endurecida, a la que normalmente se le añaden sustancias como polipropileno o... Ver mas
El papel es un material constituido por una delgada lámina elaborada a partir de pulpa de celulosa, una pasta de fibras vegetales molidas suspendidas en agua, generalmente blanqueada, y posteriormente secada y endurecida, a la que normalmente se le añaden sustancias como polipropileno o polietileno con el fin de proporcionarle características especiales. Las fibras que lo componen están aglutinadas mediante enlaces por puente de hidrógeno. También se denomina papel, hoja, o folio, a un pliego individual o recorte de este material.
Índice [ocultar]
1 Historia
1.1 Precedentes
1.2 El papel
2 Fabricación tradicional del papel
3 Fabricación del papel (siglos XX y XXI)
3.1 Tipos de papel
3.2 Propiedades
4 Etapas del proceso
5 Procesos de elaboración (máquina continua)
6 Manufactura
6.1 Preparación de las fibras
6.1.1 Papel reciclado
6.1.2 Papel de pasta virgen
6.1.2.1 Pulper
6.1.2.2 Refino
6.2 La máquina de papel
6.2.1 Cabeza de máquina
6.2.2 Tela
6.2.3 Prensas y secadores
6.2.4 Cocina
6.2.5 Lisas y calandras
6.2.6 Pope
7 Manipulado
7.1 Formatos
8 Reciclaje
8.1 Antecedentes
8.2 Reciclaje del papel y cartón
8.3 Acciones para los consumidores
9 Producción mundial
10 Características técnicas
11 Conservación
12 Aplicaciones
13 Museos
14 Véase también
15 Referencias
16 Bibliografía
17 Enlaces externos
Historia[editar]
Precedentes[editar]
En el Antiguo Egipto se escribía sobre papiro, un vegetal muy abundante en las riberas del río Nilo (Cyperus papyrus). Fue el primer material que presentaba las propiedades asociadas al papel.1 En Europa, durante la Edad Media, se utilizó el pergamino, que consistía en pieles de becerros, oveja, cabra o de carnero curtidas con cal2 y preparadas para recibir la tinta. No obstante este proceso resultaba costoso, por lo que a partir del siglo VIII se acostumbraba a borrar los textos de los pergaminos para reescribir sobre ellos (dando lugar a los palimpsestos) perdiéndose de esta manera una cantidad inestimable de obras.
El papel[editar]
Antes de la invención del papel los escribas chinos utilizaban una punta rígida para escribir sobre tiras de madera o bambú, pero estos materiales no facilitaban la escritura, además de que suponían un problema al momento de archivarlos. Después de la introducción del pincel de pelo, invento atribuido a Mêng T'ien en el siglo III a.C., se sustituyó el soporte por los primeros intentos de realizar papel a partir de residuos de tela, seda, la paja de arroz, y el cáñamo, e incluso del algodón.3 Se considera tradicionalmente que el primer proceso de fabricación del papel fue desarrollado por el eunuco Cai Lun,4 consejero del emperador He de la dinastía Han Oriental, en el s. II a. C. Durante unos 500 años, el arte de la fabricación de papel estuvo limitado a China; en el año 610 se introdujo en Japón, donde se fabricaba el papel a partir de fibras de morus, gampi y mitsumata, y alrededor del 750 en Asia Central.5 El conocimiento se transmitió a los árabes, quienes a su vez lo llevaron a Europa, donde aparece la primera fábrica en España, que se estableció en 1150. A partir de este momento se difundió la técnica por todo el continente creándose molinos papeleros en Italia, Francia y Holanda, lo que implicó la introducción de marcas de agua o filigranas para identificar la procedencia del papel.6
En Europa, la única materia prima utilizada eran trapos de lino y algodón, por lo que la aparición de la imprenta generó un aumento del uso del papel a partir del siglo XV, provocando una escasez de estos materiales. Aunque se intentó utilizar diferentes materiales como sustituto, ninguno fue un éxito comercial hasta 1840 con la introducción del proceso mecánico de trituración de madera para fabricar pulpa, y en 1850 se introduce el primer proceso químico.7
Desde entonces el papel se ha convertido en uno de los productos emblemáticos de nuestra cultura, elaborándose no solo de trapos viejos o algodón sino también de gran variedad de fibras vegetales; además la creciente invención de colorantes permitió una generosa oferta de colores y texturas.
Aunque el papel ahora puede ser sustituido para ciertos usos por materiales sintéticos, sigue conservando una gran importancia en nuestra vida y en el entorno diario, haciéndolo un artículo personal y por ende difícilmente sustituible.
La aparición y rápido auge de la informática y los nuevos sistemas de telecomunicación, permiten la escritura, almacenamiento, procesamiento, transporte y lectura de textos con medios electrónicos más ventajosos, relegando los soportes tradicionales, como el papel, a un segundo plano.
Fabricación tradicional del papel[editar]
En esencia, en el proceso tradicional para la fabricación de papel se prepara una suspensión de fibras en agua y se escurre en un tamiz, de manera que se produce una capa de fibras entrelazadas aleatoriamente. Acto seguido, se elimina el agua de esta capa mediante presión y secado. Antiguamente esas fibras se extraían de trapos o prendas viejas de algodón o de lino, o de la planta del cáñamo. La primera máquina que sustituye el proceso de producción manual se construyó en 1798 y luego fue mejorada en 1803 con el nombre de máquina de Fourdrinier.8
Posteriormente, la mayor parte del papel se ha fabricado con pulpa de madera, debido a su menor coste. No obstante, las fibras textiles se seguirán empleando hasta hoy en día para la fabricación de papeles de alta calidad.
Fabricación del papel (siglos XX y XXI)[editar]
A continuación se describen distintos procesos que se emplean en la actualidad para la elaboración de papel:
Pulpa de trapos
Se crea a partir de fibras de algodón, lino o cáñamo. Fue la principal forma de hacer papel hasta mediados del siglo XIX, cuando comenzó la producción de papel de pulpa de madera. En la primera mitad de este siglo se pueden encontrar papeles de trapo formados en máquina. El proceso para obtener la pulpa de trapo es el siguiente:
Clasificación (se separa por el tipo de fibra y estado de la tela)
Troceado (se cortan los retazos a un tamaño uniforme)
Lavado (se limpian y eliminan impurezas)
Blanqueado (se eliminan tintas y colorantes)
Macerado (se deja "pudrir" la tela en una tinaja con agua)
Bateado (se golpean las telas con mazos de madera mientras una corriente de agua limpia las impurezas hasta deshacerlas por completo con lo que se genera el desfibrado). El material desfibrado se mezcla con agua hasta obtener una pasta, la cual se extrae de los contenedores por medio de un molde o malla permitiendo la filtración del agua, para después ser prensada y secada para obtener la hoja de paple de trapo. La mayoría de este tipo de papeles presenta verjurado y marca de agua.9
Pulpa mecánica de madera
Comienza su producción a mediados del siglo XIX, y se compone de pulpa elaborada a partir de fibras de madera. El mayor porcentaje de la pulpa de este papel proviene de procesos mecánicos, por lo que las fibras son pequeñas y débiles además de que cuenta con cierto porcentaje de lignina, la cual con el tiempo lo vuelve amarillento y quebradizo.
A fines del siglo XIX se desarrollaron otros procesos para obtener papel a partir de madera como son los de pulpa química, en cuyo proceso se elimina la lignina generando papeles más resistentes a los de pulpa mecánica.10
Hay dos tipos de pulpa química: la generada al sulfito, en la cual se calienta la pulpa de madera y se le agrega ácido sulfuroso y bisulfito cálcico, y la generada al sulfato, en que se sustiye el bisulfito por sulfato de sodio
La mayoría de estos papeles son de apariencia lisa y no presentan verjurado.
Pasta morena
Se obtiene simplemente desfibrando la madera después de haberla lavado y hervido (para eliminar materias incrustantes y facilitar el desfibrado). Se consigue una pasta de fibras largas y resistentes. Se emplea para la elaboración de cartones, papel de embalaje, sacos de papel, etc.
Pasta de paja
Se obtiene de cereales y de arroz. Posee un color amarillento y se emplea para la elaboración de papeles de carnicería y para el interior del cartón ondulado.
Pasta de recortes
El recorte de papel se mezcla con las pastas para abaratar los costos. Según de dónde proceda el recorte se dividen en las siguientes categorías:
De cortes de bobina: en la fábrica al cortar las bobinas, papeles de buena calidad.
De guillotina: aquí se clasifica según la blancura, composición, etc.
Recortes domésticos: estos provienen de las oficinas, para elaborar papeles de baja calidad.
De la calle o impresos: sólo utilizado para fabricar cartón gris.
Tipos de papel[editar]
Papel cristal
Papel traslúcido, muy liso y resistente a las grasas, fabricado con pastas químicas muy refinadas y subsecuentemente calandrado. Es un similsulfurizado de calidad superior fuertemente calandrado. La transparencia es la propiedad esencial. Papel rígido, bastante sonante, con poca mano, sensible a las variaciones higrométricas. A causa de su impermeabilidad y su bella presentación, se emplea en empaquetados de lujo, como en perfumería, farmacia, confitería y alimentación. Vivamente competido por el celofán o sus imitaciones.
Papel de estraza
Papel fabricado principalmente a partir de papel recuperado (papelote) sin clasificar.
Papel libre de ácido
En principio, cualquier papel que no contenga ningún ácido libre. Durante su fabricación se toman precauciones especiales para eliminar cualquier ácido activo que pueda estar en la composición, con el fin de incrementar la permanencia del papel acabado. La acidez más común proviene del uso de aluminio para precipitar las resinas de colofonia usadas en el encolado, de los reactivos y productos residuales del blanqueo de la pasta (cloro y derivados) y de la absorción de gases acídicos (óxidos de nitrógeno y azufre) de atmósferas contaminadas circundantes. Un proceso de fabricación de papel ácido es incompatible con la producción de papeles duraderos.
Papel de liar
Un papel de fumar o papel de liar es un papel que se utiliza para liar cigarrillos. El papel de fumar tiene un extremo engomado, con un gramaje que oscila entre 12 y 25 g/m² en función de su composición, marcas y usos. Entre las marcas más renombradas podemos nombrar a 3 de los más populares , Smoking , OCB y Rizzla.
Por su finura, el papel de fumar se puede utilizar en un máquina herramienta, para ayudar al operador cuando tiene que tarar la herramienta (con la superficie de trabajo).
Papel kraft
papel de elevada resistencia fabricado básicamente a partir de pasta química kraft (al sulfato). Puede ser crudo o blanqueado. En ocasiones y en algunos países se refiere al papel fabricado esencialmente con pastas crudas kraft de maderas de coníferas. Los crudos se usan ampliamente para envolturas y embalajes y los blanqueados, para contabilidad, registros, actas, documentos oficiales, etc. El término viene de la palabra alemana para resistencia.
Papel liner
papel de gramaje ligero o medio que se usa en las cubiertas, caras externas, de los cartones ondulados. Se denomina kraftliner cuando en su fabricación se utiliza principalmente pasta al sulfato (kraft) virgen, cruda o blanqueada, normalmente de coníferas. La calidad en cuya fabricación se utilizan fibras recicladas se denomina testliner, a menudo constituido por dos capas.
Papel (cartón) multicapa
producto obtenido por combinación en estado húmedo de varias capas o bandas de papel, formadas separadamente, de composiciones iguales o distintas, que se adhieren por compresión y sin la utilización de adhesivo alguno.
Papel pergamino vegetal
papel sulfurizado verdadero.
Papel símil-pergamino
papel sulfurizado verdadero.
Papel higiénico
El papel higiénico (denominado también rollo higiénico, papel de baño, papel sanitario o papel toilette) es un tipo de papel fino que se usa para la limpieza anal y genital tras el acto de la defecación o la micción. Puede estar perfumado o no. Su formato más común es el de rollo de papel, pero también es posible encontrarlo en paquetes. Se suele vender en mercados, supermercados y farmacias en paquetes de varias unidades. El papel suele estar diseñado para que se descomponga en contacto con el agua, al contrario de las toallas de papel para las manos. En algunos casos se elaboran papeles especiales para no dañar o atascar los pozos sépticos.
Papel similsulfurizado
papel exento de pasta mecánica que presenta una elevada resistencia a la penetración por grasas, adquirida simplemente mediante un tratamiento mecánico intensivo de la pasta durante la operación de refinado, que también produce una gelatinización extensiva de las fibras. Su porosidad (permeabilidad a los gases) es extremadamente baja. Se diferencia del sulfurizado verdadero en que al sumergirlo en agua, durante un tiempo suficiente, variable según la calidad, el símil pierde toda su resistencia mientras que el sulfurizado conserva su solidez al menos en parte.
Papel sulfurizado
papel cuya propiedad esencial es su impermeabilidad a los cuerpos grasos y, asimismo, una alta resistencia en húmedo y buena impermeabilidad y resistencia a la desintegración por el agua, incluso en ebullición. La impermeabilización se obtiene pasando la hoja de papel durante unos segundos por un baño de ácido sulfúrico concentrado (75 %, 10 °C) y subsiguiente eliminación del ácido mediante lavado. Al contacto con el ácido, la celulosa se transforma parcialmente en hidrocelulosa, materia gelatinosa que obstruye los poros del papel y lo vuelve impermeable.

Foto de papel tissue.
Papel tisú
papel de bajo gramaje, suave, a menudo ligeramente crespado en seco, compuesto predominantemente por fibras naturales, de pasta química virgen o reciclada, a veces mezclada con pasta de alto rendimiento (químico-mecánicas). Es tan delgado que difícilmente se usa en una simple capa. Dependiendo de los requerimientos se suelen combinar dos o más capas. Se caracteriza por su buena flexibilidad, suavidad superficial, baja densidad y alta capacidad para absorber líquidos. Se usa para fines higiénicos y domésticos, tales como pañuelos, servilletas, toallas y productos absorbentes similares que se desintegran en agua.
Papel permanente
un papel que puede resistir grandes cambios físicos y químicos durante un largo período (varios cientos de años). Este papel es generalmente libre de ácido, con una reserva alcalina y una resistencia inicial razonablemente elevada. Tradicionalmente la comunidad cultural ha considerado crucial usar fibras de alta pureza (lino o algodón) para asegurar la permanencia del papel. Hoy en día, se considera que se ha de poner menos énfasis en el tipo de fibra y más sobre las condiciones de fabricación. Un proceso de fabricación ácido es incompatible con la producción de papeles permanentes.
Papel fluting
papel fabricado expresamente para su ondulación para darle propiedades de rigidez y amortiguación. Normalmente fabricado de pasta semiquímica de frondosas (proceso al sulfito neutro, NSSC), pasta de alto rendimiento de paja de cereales o papel recuperado, se usa en la fabricación de cartones ondulados.
Papel de piedra
es una combinación de carbonato de calcio (80 %) con una pequeña cantidad de resinas no tóxicas (20 %) para crear un sustrato sostenible fuerte. El carbonato de calcio proviene mayoritariamente de desperdicios de la industria de construcción, como el mármol, la caliza y el yeso, que son molidos en un polvo muy fino. El polietileno proviene en parte de residuos postindustriales reciclados y actúa como un ligante para el carbonato de calcio. De la simbiosis de esos materiales resulta un producto que resiste fuertemente, tanto al agua como a las roturas. Es un proceso de fabricación ecológico y de los más modernos, durante el proceso de producción el consumo de energía representa aproximadamente el 50 % de lo que se consume fabricando pasta de papel normal, no hace falta utilizar para nada el agua y no se emite ningún gas tóxico.
Papel China
los primeros papeles chinos fueron creados a partir de capullos y residuos de seda embebidos en agua, los cuales eran molidos y pulverizados, y que agregando agua quedaban reducidos a un barro que se extendía sobre una estera de ramas muy finas. El agua se filtraba a través de la estera y el barro al secarse daba origen a un pliego de papel pero de pobre calidad para la escritura. Por ello y dadas sus características de maleabilidad, fueron utilizados principalmente para envolver, hacer lamparillas o faroles y cometas (papalotes, barriletes, papaventos, etc.). Para darle mayor atractivo al delicado papel, se le añadió algunas veces color.
Propiedades[editar]
Durabilidad del papel
La durabilidad expresa principalmente la capacidad del papel para cumplir sus funciones previstas durante un uso intensivo y continuado, sin referencia a largos periodos de almacenado. Un papel puede ser durable (al resistir un uso intensivo durante un tiempo corto) pero no permanente (debido a la presencia de ácidos que degradan lentamente las cadenas celulósicas).
Estabilidad dimensional
capacidad de un papel o cartón para retener sus dimensiones y su planidad cuando cambia su contenido en humedad, por ejemplo, bajo la influencia de variaciones en la atmósfera circundante. Un alto contenido en hemicelulosas promueve el hinchamiento de las fibras y su inestabilidad.
Mano
término aplicado a un papel que expresa la relación entre su espesor y el gramaje. Su valor disminuye cuando aumentan la compactación y la densidad de la hoja.
Permanencia
se refiere a la retención de las propiedades significativas de uso, especialmente la resistencia mecánica y el color, después de prolongados períodos. Un papel puede ser permanente (retiene sus características iniciales) pero no durable, debido, por ejemplo, a su baja resistencia inicial.
Resiliencia
capacidad del papel para retornar a su forma original después de haber sido curvado o deformado. La presencia de pasta mecánica en la composición confiere dicha propiedad.
Carteo
Combinación de tacto y sonido que produce una hoja de papel cuando se agita manualmente.
Etapas del proceso[editar]
Refinado
la pasta se refina para desfibrar y cortar las fibras a fin de adaptarlas al tipo de papel deseado. De este proceso depende el grado de resistencia que tendrá el papel al doblado, reventado y rasgado.
El papel puede sufrir dos tipos de refinamiento: graso o magro:
el graso deja las fibras muy hidratadas dotando al papel de resistencia, rigidez y cierta transparencia, pero le quita flexibilidad y lo hace quebradizo, con dificultad para el plegado (papeles vegetales, de fumar, pergaminos).
el magro deja las fibras enteras o truncadas, lo que le da al papel flexibilidad, facilidad para el plegado, grosor, blandura y opacidad (son por ejemplo los papeles absorbentes, de impresión, ófset, etc.).
Encolado
en esta etapa, se le añade cola al papel, para evitar que sobre el papel se corra la tinta al imprimir o escribir. De este proceso depende el grado de permeabilidad.
El encolado se puede realizar en dos momentos: en masa o en superficie:
en masa se realiza en el transcurso de la fabricación, en el momento en el que se preparan las masas (las pasta).
en superficie cuando el papel está casi seco, en el tercio de la sequería.
El encolado consiste en la adición de productos hidrófobos como colas de resina, gelatina, colas reforzadas y productos fijantes como sulfato de aluminio (llamado frecuentemente y de forma incorrecta sulfato de alúmina).
La finalidad es evitar la penetración de líquidos en el papel que originan problemas de resistencia y de impresión (por ejemplo los caracteres pueden perder nitidez).
El encolado en masa retarda la penetración de líquido a través de la envoltura hacia los materiales. La porosidad disminuye si se utilizan gelatinas como cola. La blancura también disminuye ya que las sustancias que se emplean son menos blancas que la celulosa. La opacidad también disminuye (en general el encolado disminuye las características físicas de los papeles como pliegues, alargamiento, estallido, etc.).
Sirve también para favorecer la retención del siguiente paso: la incorporación de cargas y la mejora de la uniformidad del color.
Cargas
son productos en polvo (normalmente procedentes de la molturación de rocas) que contribuyen a darle cuerpo al papel, además de contribuir sustancialmente a conseguir otras características como disminuir el brillo, aumentar la resistencia mecánica, crear una microporosidad adecuada para su transpirabilidad, facilitar su lijado, aumentar su poder de relleno, etc.
Las cargas más utilizadas son minerales como carbonato de calcio, caolín, mica, talco, sílice, yeso, sulfato de bario o sustancias orgánicas como fécula de patata, almidón, etc.
Como las cargas son más económicas que la celulosa, disminuye el precio del papel. Los productos de carga rellenan todos los vacíos existentes entre las fibras, con lo cual el papel adquiere una superficie uniforme, al mismo tiempo que se ablanda, reducen su transparencia y mejoran las condiciones para la impresión.
La blancura del papel, su brillo u opacidad, dependen de la clase de producto de carga. El grano más fino, por ejemplo, produce mayores opacidades y una blancura más elevada. Las cargas son productos que dan cuerpo al papel que no posee mucha celulosa. La proporción de cargas que se le añade a las pastas varía proporcionalmente a su calidad (más carga, peor calidad).
Pigmentos
al igual que las cargas, rellenan los huecos del papel dando más opacidad y blancura. Se diferencian de éstas por el modo en que se aplican y porque las partículas son más pequeñas. Los pigmentos se aplican en superficie y las cargas en masa.
Coloración
se le añaden a la pasta sustancias colorantes de naturaleza mineral u orgánica (según el tipo de papel). Los colores obtenidos de sustancias minerales son más resistentes a la luz que los derivados orgánicos.
Se puede añadir el color en masa (en las mezcladoras) o en algunos tipos de papel se efectúa cuando se forma la hoja en la máquina continua.
Agente de Blanqueo Óptico (A.B.O.)
el agente de blanqueo óptico se utiliza para dar un efecto visual de mayor blancura al papel. Es el responsable de que se vea ese brillo azulado cuando el papel está bajo una luz ultravioleta.
Ligantes
debido al carácter orgánico de las fibras y el carácter inórganico de algunos aditivos (cargas, pigmentos...) se necesitan los ligantes para poder unirlos entre sí. Éstos crean unos «puentes» que unen los aditivos entre sí y después los unen a la fibra. Los más utilizados son:
almidón
látex
alcohol polivinílico.
Procesos de elaboración (máquina continua)[editar]
La pasta del refinado pasa a unos depósitos de reserva (llamados tinas) donde unos agitadores mantienen la pasta en continuo movimiento. Luego pasa por un depurador probabilístico y por uno dinámico o ciclónico. El depurador probabilístico separa las impurezas grandes y ligeras (plásticos, astillas...) y los dinámicos separan las impurezas pequeñas y pesadas (arenas, grapas...) Luego la pasta es llevada a la caja de entrada mediante el distribuidor, que transforma la forma cilíndrica de la pasta (llega a las tinas por una red de distribución de tuberías) en una lámina ancha y delgada.
Después llega a la mesa de fabricación, que contiene una malla metálica de bronce o de plástico, que al girar constantemente sobre los rodillos, hace de tamiz que deja escurrir parte del agua, y a la vez realiza un movimiento de vibración transversal para entrelazar las fibras. Las telas transportan al papel por unos elementos desgotadores o de vacío, entre ellos nos encontramos los foils, los vacuofoils, las cajas aspirantes, el rodillo desgotador o Dandy Roll y el cilindro aspirante. La función de estos elementos es la de absorber el agua que está junto a las fibras, haciendo que la hoja quede con un buen perfil (espesor) homogéneo en todo el ancho.
Después la hoja es pasada por las prensas. Éstas están provistas de unas bayetas que transportan el papel y a la vez absorben el agua de la hoja cuándo ésta es presionada por las prensas. El prensado en húmedo consta de 4 fases:
1ª fase, compresión y saturación de la hoja
El aire abandona los espacios entre fibras y su espacio es ocupado por el agua, hasta llegar a la saturación de la hoja, que es cuando la hoja no puede absorber más agua.
2ª fase, compresión y saturación de la bayeta
Se crea una presión hidráulica en el papel y el agua empieza a pasar del papel a la bayeta hasta llegar a la saturación de ésta.
3ª fase, expansión de la bayeta
La bayeta se expansiona más rápido que el papel y sigue absorbiendo agua hasta la máxima sequedad de la hoja
4ª fase, expansión de la hoja
Se crea una presión hidráulica negativa y el agua vuelve de la bayeta al papel, en éste momento hay que separar la hoja de la bayeta lo más rápidamente posible.
Después del prensado en húmedo la hoja pasa a los secadores donde se seca mediante unos cilindros que son alimentados con vapor. La hoja es transportada por unos paños que ejercen una presión sobre los secadores para facilitar la evaporación del agua de la hoja.
De los secadores el papel llega a la calandria o calandra. Éstos son cilindros superpuestos verticalmente y apretados entre sí en cuyo interior puede circular vapor para calentar el papel, o agua para refrescarlo (según el tipo de papel que se desee fabricar). Así se le da al papel un ligero alisado que puede ser definitivo (si se está fabricando papel alisado) o preparatorio para la calandria de satinado (en la que según la intensidad de la presión de los cilindros, se obtienen diferentes satinados). Este proceso, además de alisar y compactar la estructura del papel, da mayor brillo a la superficie del papel.
Finalmente el papel llega al plegador donde se procede a recogerlo en una bobina.
Manufactura[editar]
Las fibras para su fabricación requieren de unas propiedades especiales, como alto contenido en celulosa, bajo costo y fácil obtención, por lo que las más comúnmente usadas son las vegetales. La materia prima más común es la pulpa de celulosa, proveniente de madera de árboles, principalmente pinos, por su precio y la calidad de su fibra (muy larga), y eucaliptos, pues es muy barata y resistente. También se utilizan otros materiales, como el algodón y el cáñamo. Dependiendo del tipo de materia prima utilizada y del proceso al que ésta haya sido sometida, los productos obtenidos serán distintos en cuanto a calidad de la pasta del papel, así como a tipos de papel y cartón. Asimismo, también dependerá del tipo de maquinaria empleada en cada proceso.11
Se describe la producción de papel, ya que el proceso de obtención de pasta o pulpa es un tema totalmente diferente.
Preparación de las fibras[editar]
Papel reciclado[editar]
Obtención de papel con materia prima reciclada. Los pasos de formación de la hoja y su manipulación son los mismos. La diferencia radica en que el material utilizado ya es papel. Éste es obtenido en su mayor parte de los sobrantes de edición (mejor calidad, menos utilizado, más limpio y homogéneo) y de las recogidas selectivas (papel más sucio por estar utilizado y desconocerse su composición exacta, periódicos mezclados con revistas, cajas de cartón usadas, etc.).
Papel de pasta virgen[editar]
Una vez que se tiene la pulpa de celulosa, obtenida por medios químicos (pasta química o Wood Free, que se consigue disolviendo la lignina) o medios mecánicos (pasta mecánica, que no elimina la lignina sino que separa las fibras por fricción), hay que acondicionarla para el proceso de fabricación.
Pulper[editar]

Vista de la hélice de un pulper.
La pasta se prepara en un aparato llamado pulper (dispositivo semejante a una gran batidora), donde se mezcla agua con la pasta de papel. La pasta puede estar en forma de fardos y balas (muchas hojas de pasta de papel), a granel (pasta de papel desmenuzada) o, si se trata de una fábrica integrada cuyo proceso de pasta y de papel se realiza en la misma factoría, en suspensión de agua.
El pulper es una gran cuba, normalmente a nivel inferior al del suelo, en cuyo interior se encuentra una gran hélice. Al añadir la pasta de papel, comienza el proceso de disgregación de fibras, primero por el impacto al caer los fardos, después por el rozamiento de la hélice con la pasta y finalmente por el rozamiento de las mismas fibras entre sí. Esta acción genera calor que ayuda a la dispersión.
Según el tipo de producción, se puede usar papel viejo, obteniendo un papel de menor calidad (papel reciclado). Aunque siempre se mezcla con pasta virgen, ya que las fibras se estropean, se rompen y dejan de ser útiles para la fabricación. Es imposible reciclar o reutilizar papel indefinidamente.
Refino[editar]
Después, las fibras en suspensión se han de tratar físicamente mediante un proceso de fricción, para aumentar su capacidad de «afieltrarse» y unirse entre sí. A este proceso se le llama «refino». Consiste en frotar las fibras entre sí y contra unos discos metálicos. Esto hace que se rompan parcialmente y se creen una especie de pelos que son los que crearán los puentes de hidrógeno y darán al papel mayor resistencia a la tracción.
Cada tipo de fibra papelera y cada tipo de papel usan una refinación distinta que se adecua a cada necesidad. Al aumentar el grado de refinación de una pasta disminuye su opacidad, aumenta la resistencia a la tracción y disminuye la porosidad. Así, el papel cebolla (típico papel usado en dibujo, semitransparente) está muy refinado.
Una vez refinado, pasa por varias tinas (contenedores de líquidos) donde se le añaden aditivos tales como colorantes, cargas minerales (para añadir blancura, disminuir porosidad, etc.), productos especiales (para aumentar la resistencia al agua, a la tracción, etc.).
Una vez se le han añadido todos los elementos que se necesitan y la pasta ha reposado un pequeño tiempo para eliminar la latencia (propensión de la fibra a enredarse, convirtiéndose en pegotes), llega a la máquina de papel donde será tratado para ser después secado en un sitio secante.
La máquina de papel[editar]
Es el elemento más importante. Es el lugar donde la pasta en suspensión se convierte en papel. Aunque hay varios tipos, la más extendida es la máquina de mesa plana, derivada de la primera máquina inventada por Fourdrinier en tiempos de Napoleón.

Vista de los labios de la cabeza de máquina.
Consta de varios elementos, se citan los más importantes por orden de utilización y la utilidad que desempeñan.
Cabeza de máquina[editar]
Se encarga de expulsar la pasta de papel en una fina capa sobre la tela de la máquina de papel.
Es una caja alargada, en cuyo interior circula la pasta. En su extremo inferior, tiene una abertura en su largo por donde sale la película de pasta. El ancho de esta abertura se controla con unos labios, que al aumentar su distancia entre sí dejan caer más o menos cantidad. Controlando la salida de pasta de los labios se obtienen distintas propiedades de la hoja formada.
Al salir de los labios, cae directamente en la tela de máquina, ésta en su inicio, se le da un movimiento horizontal para mitigar un sentido de la fibra pronunciado.
Al caer las fibras tienden a colocarse en una posición paralela al movimiento de la tela, si no se elimina en parte, el papel tendrá una serie de características no adecuadas, como menor estabilidad dimensional (al humedecerse el papel, las celulosa se hincha, si todas las fibras van en el mismo sentido, se hincharán más en sentido longitudinal que en el transversal), mayor desgarro (fibras menos unidas).

Tela de la máquina de papel.
Un experimento sencillo para descubrir el sentido de la fibra: tomar una hoja de periódico (tienen el sentido muy marcado), desgarrarla (sin tijeras, usar las manos), primero en el sentido de las letras impresas y después en el contrario, puede verse que en un sentido sale una línea casi recta, mientras que en el otro es complicado conseguir.
En otros papeles de gran calidad esta diferencia es casi imperceptible, se han de realizar ensayos más complicados (rigidez por ejemplo).
Tela[editar]

Detalle de los foils.
Es una malla muy fina donde se coloca la pasta de papel y comienza el desgote y secado.
La primera parte del secado es por gravedad, el agua cae atravesando la tela y las fibras quedan retenidas en la parte superior.
Después, el exceso de agua no desgota por sí solo, por lo que hay que ayudarlo con varios elementos.
Foils
Unas piezas, generalmente de plástico, que se colocan en la parte inferior de la tela. Tienen un ligero ángulo de descenso que al contacto con la malla generan un cierto vacío.
Vacuum foils
Lo mismo que los foils, pero además absorben el agua mediante bombas de vacío.
Dandy

Dandy roll.
Un gran rodillo hueco, cuyo exterior está recubierto de una malla. Se coloca en la parte superior de la tela en contacto directo con el papel. Mediante presión y, en algunos casos bombas de vacío, exprime el agua.
Además puede tener una serie de dibujos en relieve, que al presionar sobre el papel húmedo crea las marcas al agua. Es posible ver marcas de agua si se coloca, por ejemplo, un billete de banco al trasluz.
Al eliminar el agua en su mayor parte, el papel comienza a tener consistencia y se coloca en la sección de prensas y secadores.
Prensas y secadores[editar]

Rodillos de la zona de sequería.
Una vez el papel ya ha adquirido consistencia, se ha de eliminar toda la humedad posible. Para esta etapa se usa presión y calor.
La presión se da por medio de pares de rodillos recubiertos de goma; entre los rodillos y la hoja de papel corre una cinta de fieltro que absorbe el agua escurrida por la presión del rodillo.
La banda de papel prensada se hace pasar por una serie de rodillos huecos por los que circula vapor a altas temperaturas. Para ello se acompaña con una manta de fieltro que evita que la hoja se aparte del cilindro ayudando al secado y guiando la hoja por ellos.
Cocina[editar]
Es un proceso aparte del de fabricación del papel en el que se elaboran los productos para ser aplicados a la superficie del papel para modificar aspectos del producto final. Después continúa otra serie más de prensas para terminar el secado.
Este producto aplicado en la máquina de papel es llamado preestucado. Luego el papel puede ser llevado a la máquina estucadora para serle aplicado el estucado que junto con una aplicación de presión y calor da brillo al papel.
Lisas y calandras[editar]
Una vez seco, las fibras se han unido convirtiéndose finalmente en lo que consideramos papel. En algunas ocasiones, se requiere un papel muy brillante, o con una lisura especial; esto se consigue presionando entre dos rodillos llamados lisas. Las calandras tienen varios rodillos metálicos colocados unos sobre otros, algunos calentados a vapor.
Otra aplicación de las lisas es la de modificar el calibre o grosor del papel mediante presión.
Pope[editar]
Finalmente, el papel fabricado se enrolla en grandes bobinas para su posterior uso. Es un cilindro refrescador con entrada y salida de agua para el correcto enrollado.
Manipulado[editar]
Rebobinado
la máquina de papel entrega una hoja continua de ancho fijo y con defectos. En una etapa de rebobinado se eliminan los defectos y se corta la hoja por el largo de acuerdo a las necesidades de los usuarios. Las grandes bobinas que se obtienen en pope se transforman en bobinas terminadas más pequeñas y fáciles de manejar.
Corte
el transformado de bobinas de papel a papel cortado, se realiza en una máquina llamada cortadora.
El papel una vez cortado, se separa en paquetes:
Resma: 500 hojas
Media resma: 250 hojas
Cuarta: 125 hojas
Quinta: 100 hojas.
Estas medidas vienen dadas porque antiguamente el papel se contaba a mano. Se separaban las hojas de cinco en cinco (dedo = 5 hojas) equivalentes a un cuadernillo, con cada cinco cuadernillos de papel se formaba una mano (mano = 25 hojas), y veinte manos de papel formaban una resma.12

Distintos formatos de papel.
Formatos[editar]
Para facilitar la impresión y economizar en gasto de papel, existen una serie de normas sobre el formato del papel.
En la mayoría de países europeos, la norma UNE (una adaptación de la norma DIN).
Los formatos más habituales son:
Norma DIN Serie A
Más información sobre formatos de papel.
Reciclaje[editar]
Antecedentes[editar]

Contenedor de papel y cartón para reciclaje en España
Aunque antiguamente se obtenía papel de otras plantas (incluyendo el cáñamo del que se extrae una celulosa de alta calidad), la mayor parte del papel se fabrica a partir de los árboles. Para fabricar un kilogramo de papel convencional se utilizan cien litros de agua.[cita requerida]
Con papel y cartón se fabrican:
Bolsas de papel para diversos usos.
Cajas de cartulina para variados usos.
Cajas de cartón corrugado.
Bandejas de cartón y cartulina para repostería y para paquetes de bebidas.
Papel para imprentas, oficinas y muchos tipos más.
En el mundo, la industria consume alrededor de 4000 millones de árboles cada año, principalmente pino y eucalipto. Las técnicas modernas de fabricación de pastas papeleras usan especies muy específicas de estos árboles.
El consumo de papel y cartón en Argentina alcanza 42 kg por persona al año; en Estados Unidos, 300 kg por persona al año, y en China y la India 3 kg por persona al año.
En Chile se producen entre 450 y 500 mil toneladas de papel al año y se recupera alrededor del 47 %. La industria de la celulosa y el papel utiliza un tercio de la producción nacional de madera.
Con el reciclaje se ahorra un 25 % de energía en el proceso de fabricación.
Reciclaje del papel y cartón[editar]
Artículo principal: Reciclaje de papel
El papel de desecho puede ser triturado y reciclado varias veces. Sin embargo, en cada ciclo, del 15 al 20 % de las fibras se vuelven demasiado pequeñas para ser usadas. La industria papelera recicla sus propios residuos y los que recolecta de otras empresas, como los fabricantes de envases y embalajes y las imprentas.
El papel y el cartón se recolectan, se separan y posteriormente se mezclan con agua para ser convertidos en pulpa. La pulpa de menor calidad se utiliza para fabricar cajas de cartón. Las impurezas y algunas tintas se eliminan de la pulpa de mejor calidad para fabricar papel reciclado para impresión y escritura. En otros casos, la fibra reciclada se mezcla con pulpa nueva para elaborar productos de papel con un porcentaje de material reciclado.
Uno de los sectores industriales que ocupa gran cantidad de material de desecho es la fabricación de papel y cartón. En Chile, la Compañía Manufacturera de Papeles y Cartones, CMPC, es el principal comprador de estos desechos. En los comienzos, la Papelera compraba el material en su planta de Puente Alto. Con el aumento de los volúmenes comercializados, la Papelera creó una empresa subsidiaria, SOREPA, que desde 1972 es abastecida, a lo largo del país, por los recolectores independientes e intermediarios.

Papel artesanal.
Otras empresas que realizan esta labor en este país son: Eco-lógica, Recupac S.A., Comercial Ecobas Ltda., Sociedad de Servicios Industriales Ltda., Reciclados Industriales Ltda. Además, en el último tiempo se han incorporado algunos centros de acopio y empresas de reciclaje (éstas provienen, por lo general, de agrupaciones de cartoneros), los que utilizan esta estructura para salir al mercado mayorista. A raíz de esto han surgido: Ecores Ltda., Centro de Acopio de Residuos Sólidos Conchalí, Centro de Acopio Santiago Centro, entre otros.
Acciones para los consumidores[editar]
Lo principal es comprar productos que estén mínimamente envueltos.
Es posible promover la reutilización, la reducción y el reciclaje de las cajas y otros envases y embalajes, así como incentivar a las organizaciones de las comunidades, a los supermercados, escuelas y tiendas, a la instalación de programas de reciclaje de papel y cartón.
Producción mundial[editar]
Productores de papel y cartón más importantes
Posición País Producción
(en Mt)
Principales países productores de papel y cartón
Posición País Producción
(en Mt)
1 Estados Unidos 80,8 11 Brasil 7,8
2 China 37,9 12 Indonesia 7
3 Japón 30,5 13 Reino Unido 6,5
4 Canadá 20,1 14 Rusia 6,3
5 Alemania 19,3 15 España 5,4
6 Finlandia 13,1 16 Austria 4,6
7 Suecia 11,1 17 India 4,1
8 Corea del Sur 10,1 18 México 4,1
9 Francia 9,9 19 Tailandia 3,4
10 Italia 9,4 20 Países Bajos 3,3
Fuente : Handelsblatt - Die Welt in Zahlen (2005)
Características técnicas[editar]
Según el uso al que vaya dirigido, necesita unas características técnicas específicas. Para ello se miden las cualidades del papel.
Las más comunes son:
Peso - Gramaje: peso en gramos por unidad de superficie (g/m²). Antiguamente se medía por el peso de una resma, una docena de docenas de pliegos, siendo cada pliego del tamaño de 8 hojas, del antiguo tamaño folio (215 mm x 315 mm). Actualmente, la resma tiene otro valor (500 hojas).
Longitud de rotura: se mide la cantidad de papel (en miles de metros) necesaria para romper una tira de papel por su propio peso.
Desgarro: resistencia que ofrece el papel a la continuación de un desgarro.
Resistencia al estallido: resistencia que ofrece el papel a la rotura por presión en una de sus caras.
Rigidez: resistencia al plegado de una muestra de papel.
Dobles pliegues: cantidad de dobleces que soporta una muestra hasta su rotura.
Porosidad: se mide la cantidad de aire que atraviesa una muestra de papel.
Blancura: grado de blancura.
Opacidad: es la propiedad del papel que reduce o previene el paso de la luz a través de la hoja. Es lo contrario a la transparencia.
Estabilidad dimensional: básicamente la estabilidad dimensional hace referencia a las modificaciones en tamaño de una hoja de papel dependiendo de las condiciones de humedad en el ambiente. Esto quiere decir que dependiendo de la humedad el papel tenderá a variar su tamaño; suele hacerlo en dirección de las fibras (fusiforme) por lo que se puede predecir aproximadamente cómo se deforma.
Ascensión capilar: altura en milímetros que alcanza el agua en una muestra parcialmente sumergida.
Planeidad: algunos de los cambios anteriormente enumerados inciden en la planeidad del papel, esto último es un factor importante para la impresión ófset.
Conservación[editar]
El papel es uno de los principales soportes de información, además de constituir la memoria histórica y cultural de las civilizaciones, no solo de las que lo utilizan sino de los que lo manufacturan. Por lo mismo es necesario tener en cuenta su conservación y resguardo adecuado, ya que tanto lo plasmado en él, como el soporte, forman parte de la memoria documental de la humanidad.13
Hay distintos factores, tanto intrínsecos como extrínsecos, que alteran y deterioran al papel, por lo que es necesario conocer las condiciones inmediatas que lo rodean.
Humedad y temperatura: la humedad excesiva puede llegar a provocar la presencia de hongos, ondulaciones y degradación del papel por hidrólisis, la cual se puede agravar si la temperatura es alta pues cataliza la reacción de degradación. En cambio la baja humedad más altas temperaturas hace que el papel se vuelva frágil y quebradizo.
Luz: las luces incandecentes pueden provocar la ruptura de las cadenas de celulosa, debilitando el papel. También pueden generar decoloración de tintas y pigmentos.
Plagas: es fácil encontrar plagas e insectos en condiciones similares a las requeridas para la aparición de hongos. Los más comunes suelen ser gusanos de libro, pececillos de plata, piojos de libro, cucarachas y roedores.
Acidez: genera pérdida de resistencia en el papel, hidrolisis ácida, rigidez y fragilidad. Puede ser generada por contaminantes atmosféricos, impurezas, pinturas, tintas ferrogálicas, adhesivos, papeles de montaje o presencia de materiales que no son libres de ácido. Los papeles más afectados por la acidez son los producidos a partir de 1860 ya que es muy probable que se hayan realizado con pulpa de madera no purificada y encolados con alumbre y colofonia.14
Mancha: es toda alteración no deseada del color original, causada por elementos externos. Pueden ser producto de polvo o suciedad, humedad, ataque de hongos, cintas adhesivas y alimentos entre otros.
Foxing: es un deterioro de tipo químico que consiste en pequeñas manchas de color ocre a café. Se tienen dos hipótesis sobre su origen; la primera plantea que son producto de impurezas metálicas de hierro en el papel, mientras que la otra menciona que se trata de un ataque biológico por bacterias u hongos.
Oxidación: se da de manera pausada y progresiva y es causado ppor rupturas en la cadena de celulosa. Puede acelerarse por la presencia de ácidez y humedad y temperatura altas o presencia de tintas ferrogálicas.
Deformaciones: son causadas por exceso de humedad o acción mecánica.
Roturas: existen tres tipos de roturas: rasgado, rotura por plegado y corte. En los dos primeros casos las fibras no se fragmentan mientras que en los cortes las fibras son seccionadas.
Alteraciones de elementos gráficos: se genera cuando la alteración de los elementos plasmados en el papel afectan de manera negativa el soporte. Pueden identificarse como el deterioro cromático de los tintes, difusión de los tintes generando halos o manchas y arrastres de pigmento por medios mecánicos o por humedad.
Tintas ferrogálicas: son tintas creadas a partir de hierro y taninos y se clasifican en tres tipos. Las tintas balanceadas tienen una proporción equilibrada de hierro y taninos por lo que son estables. Tintas desbalanceadas al hierro, la cantidad de hierro es mayor a la de taninos, son susceptibles a la corrosión lo que provoca la degradación completa del papel. Y las tintas desbalanceadas a los taninos, los cuales actúan como protección ante la oxidación pero van adquiriendo un tono café amarillo y tienden a la decoloración.
Las condiciones de almacenamiento son indispensables para una correcta conservación del papel, por lo que se recomienda un rango de humedad relativa de 40 a 55% y un rango de temperatura entre 18 y 23 °C. Deberán almacenarse extendidos, no doblados, y en presencia de material libre de ácido.15
Aplicaciones[editar]

Rollo de papel higiénico
El papel se usa para infinidad de cosas. Aparte de las más habituales (escritura, impresión...) hay una serie de usos curiosos:
Para la papiroflexia.
Puertas. Algunas puertas de baja calidad constan de dos chapas de madera en cuyo interior se encuentran unas celdas tipo abeja, que dan consistencia, hechas de papel.
Decorativo como sucedáneo de madera. Por ejemplo, en las de roble en cuyo interior aparece al romperse serrín prensado y una capa con el dibujo simulando las vetas de madera. Es papel pintado y melaminado (tratamiento que le da aspecto de plástico). También se usa para elaborar objetos decorativos superponiendo capas de trozos engomados dándole la forma deseada, o moldeándolo después de reconvertirlo en pasta, técnicas denominadas papel maché o carta pesta.
Dinero (billetes). Es un papel complicado de fabricar, y muy complicado de imitar. Se fabrica con un gran porcentaje de pasta de algodón, que le confiere resistencia (fibras muy largas). Se añaden fibras especiales que brillan con luz ultravioleta, y se le aplican marcas al agua.
El empapelado decorativo de paramentos en arquitectura interior.
En la escultura, aunque siempre tuvo su sitio para la realización de ciertas figuras, más o menos artísticas, para las cuales se utiliza el llamado cartón piedra, se ha integrado para la realización de aquellas "más nobles". El papel tiene, en contra de lo que se pudiera suponer, una gran fortaleza y persistencia en el tiempo.
Dentro de la restauración de obras sobre papel y libros, se utiliza el papel japonés hecho a mano en sus distintos gramajes, esto por la calidad de sus fibras largas y resistentes además de que es libre de ácido.
Museos[editar]
El Museo del Molino de Papel de Capellades, situado en Capellades, provincia de Barcelona, España, es uno de los museos más importantes en cuanto a la temática del papel. Está situado en un antiguo molino papelero. Su colección incluye maquinaria para la fabricación de papel tradicional y papeles y documentos desde el siglo XIII. En el sótano, donde aún se continúa fabricando papel manualmente, muestra el proceso artesanal de fabricación del papel.
El Museo Valenciano del Papel, situado en Bañeres, provincia de Alicante, España, expone el proceso artesanal de fabricación de papel, ilustrado con los objetos utilizados y maquetas de antiguos molinos. Incluye 1300 libritos de papel de fumar, filigranas y juguetes de papel, así como una biblioteca especializada.
El Museo Suizo del Papel, la Escritura y la Imprenta, situado en Basilea, Suiza, está dedicado a la fabricación de papel, la imprenta y la escritura. Muestra las antiguas técnicas artesanales de elaboración de papel, de imprenta y de encuadernación. El museo está ubicado en un edificio restaurado que ya funcionaba como molino de papel hace más de 500 años.

Ha recibido 1130 puntos

Vótalo:

TRANSFUSIONES (1906)

17. TRANSFUSIONES (1906)

https://www.youtube.com/watch?v=CaZxN64Dh1M

La transfusión de sangre es la transferencia de sangre o un componente sanguíneo de una persona (donante) a otra (receptor).1 Con los descubrimientos realizados acerca de la circulación de la sangre por William Harvey, se inició una investigación más sofisticada para las transfusiones de sangre... Ver mas
La transfusión de sangre es la transferencia de sangre o un componente sanguíneo de una persona (donante) a otra (receptor).1 Con los descubrimientos realizados acerca de la circulación de la sangre por William Harvey, se inició una investigación más sofisticada para las transfusiones de sangre en el siglo XVII, con experimentos acertados de transfusiones en animales. Sin embargo, las investigaciones sucesivas de transfusión entre animales y seres humanos no fueron tan exitosas (como cualquier técnica médica experimental que emerge) hasta que estas técnicas se refinaron y hoy en día salvan cientos de miles de vidas diariamente.
Índice [ocultar]
1 Historia y desarrollo del método
2 Donación de sangre
3 Contraindicaciones y tipos de sangre
4 Transfusión e infección
5 Véase también
6 Referencias
7 Enlaces externos
Historia y desarrollo del método[editar]

Luis Agote (2ndo desde derecha) supervisando una de las primeras transfusiones efectivas y seguras en 1914.

Una jeringa soviética de la Segunda Guerra Mundial para transfusión directa interhumana.

El doctor Norman Bethune, pionero en el uso de unidades móviles de transfusión sanguínea, realizando una transfusión durante la Guerra Civil Española.
El primer intento de transfusión sanguínea registrado ocurrió en el siglo XV relatado por Stefano Infessura. En 1492 el Papa Inocencio VIII cayó en coma, por lo que se requirió de la sangre de tres niños para administrársela a través de la boca (ya que en ese entonces no se conocía la circulación sanguínea) a sugerencia del médico. A los niños de 10 años de edad se les prometió pagarles con sendos ducados de oro y, sin embargo, tanto el Papa como los jovencitos murieron. Algunos autores desacreditan el relato de Infessura, acusándolo de antipapista.
La primera transfusión de sangre humana documentada fue administrada por el doctor Jean-Baptiste Denys, quien el 15 de junio de 1667 describió el caso de un enfermo de sífilis que murió después de haber recibido tres transfusiones de sangre de perro: «Estaba en el proceso exitoso de recibir la transfusión... pero algunos minutos después... su brazo se calentó, su pulso aceleró, el sudor brotó sobre su frente, se quejaba de fuertes dolores en los riñones y en el estómago, su orina era oscura, negra de hecho... luego murió...».
Durante la primera década del siglo XX se identificaron los diferentes tipos de sangre, y que la incompatibilidad entre la sangre del donante y del receptor podía causar la muerte.
Karl Landsteiner descubrió que las personas tenían diferente tipo de sangre y que las transfusiones no eran compatibles entre personas de diferente tipo. En 1901 describió el sistema de ABO y en 1940 el sistema Rh.
El método de conservación de sangre humana para su uso diferido en transfusiones, mediante la adición de citrato de sodio, fue desarrollado por el médico argentino Luis Agote en 1914.
En 1936, durante la Guerra Civil Española, el médico Frederic Durán-Jordà organizó un banco de sangre en Barcelona con un servicio de transfusiones a distancia.2 Y el médico Norman Bethune desarrolló el primer servicio móvil de transfusiones de sangre que llegaba hasta el frente de batalla.3

Charles Drew.
A fines de la década de 1930 e inicios de la de 1940, la investigación del médico estadounisense Charles Drew llevó al descubrimiento de que la sangre podía ser separada en plasma sanguíneo y células rojas, y de que el plasma podía ser congelado separadamente. La sangre almacenada de este manera duraba más tiempo y era menos propensa a contaminarse.
Donación de sangre[editar]
Artículo principal: Donación de sangre
Mediante la donación de sangre se pretende cubrir las necesidades de transfusión que necesitan las personas enfermas. La donación es realizada principalmente por voluntarios o familiares de los enfermos. Los países desarrollados suelen contar con un sistema que controla las donaciones a través de los bancos de sangre.
La sangre se extrae por medio de una punción en el brazo y se trata para impedir su coagulación, posteriormente la sangre se separa en sus componentes principales, plasma, plaquetas y glóbulos rojos.
La sangre de los donantes es posteriormente analizada, pasando un exhaustivo control que incluye numerosas pruebas para detectar los principales virus que puede contener la sangre, como: pruebas para la detección de anticuerpos irregulares, pruebas de serología infecciosa, pruebas para medir el nivel de transaminasas y prueba del NAT.4
Contraindicaciones y tipos de sangre[editar]
Sangre ¿A quién puede donar? ¿De quién puede recibir donación?
A+ A+ AB+ O+ O- A+ A-
A- A+ A- AB+ AB- O- A-
B+ B+ AB+ O+ O- B+ B-
B- B+ B- AB+ AB- O- B-
AB+ AB+ TODOS
AB- AB+ AB- O- B- A- AB-
O+ A+ B+ AB+ O+ O+ O-
O- TODOS O-

Características de cada grupo sanguíneo
Para realizar transfusiones, deben tomarse medidas para asegurar la compatibilidad de los grupos sanguíneos del donante y el receptor, para evitar reacciones hemolíticas potencialmente fatales. La tabla de compatibilidades e incompatibilidades de tipos de sangre es como se indica en la tabla de la derecha.
Sin embargo, no son el ABO y el Rh los únicos tipos de grupos sanguíneos existentes. Existen otros tipos de grupos sanguíneos menos conocidos por ser menos antigénicos que los anteriores y por lo tanto menos susceptibles de provocar reacciones de incompatibilidad. Por ello es imprescindible realizar pruebas cruzadas entre la sangre de donante y la del receptor, para descartar la existencia de anticuerpos en el receptor contra eritrocitos del donante. Antiguamente este análisis se hacía observando la reacción al microscopio y valorando con el mismo la aparición o no de aglutinación (incompatibilidad). En la actualidad el proceso está automatizado y ya no es imprescindible depender únicamente de la fiabilidad del observador al microscopio.
Transfusión e infección[editar]
Los países desarrollados someten cada unidad de sangre donada a pruebas de laboratorio para detectar la presencia de múltiples tipos de virus y bacterias como el VIH/SIDA, las hepatitis B y C o la sífilis. Así, al realizar una transfusión sanguínea en los Estados Unidos, la American Medical Association dijo en 2004 que la probabilidad de que una unidad de sangre sea portadora de virus o bacterias es inferior a una entre 1,9 millones en el caso del VIH e inferior a una entre un millón en el caso de la hepatitis C.5 En contraste, en 2008, la Organización Mundial de la Salud reveló que en 31 países en desarrollo y con economías en transición no se realizaban, en todas las unidades de sangre donada, pruebas para detectar la presencia de virus o bacterias responsables de enfermedades infecciosas.6
Según informe del sitio oficial de Cruz Roja/Media Luna Roja, del año 2007, las transfusiones de sangre contaminada ponen vidas en peligro, porque pueden contagiar al receptor el VIH o los microorganismos responsables de la hepatitis B, la hepatitis C, la sífilis, la enfermedad de Chagas, la malaria y otras infecciones. La sangre contaminada por cualquiera de estos agentes patógenos no puede ser transfundida y debe desecharse, lo que supone unos costes económicos adicionales. Estas cuestiones son especialmente preocupantes en los países con escasez de sangre.
En el mundo, hasta cuatro millones de personas se han infectado con el VIH/SIDA por la transfusión de sangre contaminada.
La prevalencia de los agentes responsables de la hepatitis B, la hepatitis C y la sífilis en la sangre donada sigue siendo inaceptablemente alta en muchos países en desarrollo; la prevalencia de Trypanosoma cruzi (responsable de la enfermedad de Chagas) en la sangre donada es un problema importante en algunos países de América del Sur y América Central.
Muchos países carecen de políticas, procedimientos o recursos para garantizar la seguridad de la sangre, sobre todo en zonas de África, Europa Oriental, Asia Central y Asia Meridional y Sur Oriental, que se enfrentan a la pandemia de VIH/SIDA ya que son los que tienen la mayor prevalencia de infecciones transmisibles por la sangre.

Ha recibido 1117 puntos

Vótalo:

HERRAMIENTAS (HACE 3/4 MILLONES DE AÑOS)

18. HERRAMIENTAS (HACE 3/4 MILLONES DE AÑOS)

https://www.youtube.com/watch?v=QYwD3v8Bgm0

Una herramienta es un objeto elaborado a fin de facilitar la realización de una tarea mecánica que requiere de una aplicación correcta de energía (siempre y cuando se hable de herramienta material). El término herramienta, en sentido estricto, se emplea para referirse a utensilios resistentes... Ver mas
Una herramienta es un objeto elaborado a fin de facilitar la realización de una tarea mecánica que requiere de una aplicación correcta de energía (siempre y cuando se hable de herramienta material).
El término herramienta, en sentido estricto, se emplea para referirse a utensilios resistentes (hechos de diferentes materiales, pero inicialmente se materializaban en hierro como sugiere la etimología), útiles para realizar trabajos mecánicos que requieren la aplicación de una cierta fuerza física.1
En la actualidad la palabra herramienta abarca una amplia gama de conceptos y diferentes actividades (desde las herramientas manuales hasta las informáticas), pero siempre bajo la idea de que el término herramienta se usa para facilitar la realización de una actividad cualquiera.
Índice [ocultar]
1 Tipo de material
2 Características de las herramientas
3 Historia de las herramientas
4 Tipos de herramientas
4.1 Herramientas de montaje
4.2 Herramientas de sujeción
4.3 Herramientas de golpe
4.4 Herramientas de corte
4.5 Herramientas de unión
4.6 Herramientas de medición y trazo
5 Referencias
6 Enlaces externos
Tipo de material[editar]
La palabra herramienta proviene del latín ferramentum, compuesta por las palabras ferrum, «hierro», y mentum, «instrumento». Esto se debe a que en sus inicios las herramientas eran usadas de forma mecánica y prácticamente todas ellas estaban hechas de hierro.2
Características de las herramientas[editar]
Las herramientas se diseñan y fabrican para cumplir uno o más propósitos específicos, por lo que son artefactos con una función técnica.
Muchas herramientas, pero no todas, son combinaciones de máquinas simples que proporcionan una ventaja mecánica. Por ejemplo, una pinza es una doble palanca cuyo punto de apoyo está en la articulación central, la potencia es aplicada por la mano y la resistencia por la pieza que es sujetada. Un martillo, en cambio, sustituye un puño o una piedra por un material más duro, el acero, donde se aprovecha la energía cinética que se le imprime para aplicar grandes fuerzas.
Las herramientas se dividen en dos grandes grupos: manuales y mecánicas. Estas mismas se subdividen según su uso, como por ejemplo de medición, trazado, sujeción, corte, desbaste, golpe y maquinado. Las manuales usan la fuerza muscular humana (como el martillo), mientras que las mecánicas usan una fuente de energía externa, por ejemplo la energía eléctrica.
Historia de las herramientas[editar]
Al igual que el resto de los animales, los humanos primitivos usaban su cuerpo para conseguir lo que necesitaban: cavaban pozos y cazaban con sus manos, cortaban la carne con sus dientes, etcétera. Pero el raciocinio humano, y la posibilidad del movimiento con sus manos, que le permiten agarrar cosas, le posibilitó paulatinamente diferenciarse del resto de los animales, y comenzó a crear elementos que le facilitaban sus labores, que fueron evolucionando desde objetos muy simples, hasta las sofisticadas herramientas actuales.
Las primeras herramientas utilizadas por humanos primitivos fueron elementos que usó en su estado natural y que los encontró en su entorno, como piedras, huesos de animales y palos, que supo aprovechar como armas o medios defensivos.
Hace aproximadamente 3 000 000 de años, los humanos comenzaron a tallar piedras, golpeando con una dura otra más blanda, como el sílex, por ejemplo, haciéndoles puntas de flechas para aprovecharlas como armas, o creándoles bordes filosos, que le permitieran cortar carne o madera. Así fueron apareciendo el cuchillo, el hacha, el serrucho y el torno. Con huesos de animales o espinas de pescados crearon las primeras agujas, usando como hilo fibras de plantas o tiras finas de cuero, que usaron para coser sus vestimentas.
Paulatinamente fueron mezclando sus inventos para crear otros más complejos, por ejemplo al mango del martillo se le agregó una piedra afilada en forma de sierra, y se creó la hoz, que le sirvió para recoger la cosecha.
Gracias a estos avances y combinaciones, hoy en día existe una amplia variedad de herramientas: lápices para escribir, gomas para borrar, cintas para correr, automóviles para movilizarnos más rápidamente, computadoras para escribir o conectarnos con el mundo, etcétera, que todas y cada una de ellas nos permiten realizar actividades de forma más fácil o simplemente nos permiten hacer cosas inimaginables hace algunos años atrás.2
Tipos de herramientas[editar]
A continuación veremos algunos de los distintos tipos de herramientas, su función y el funcionamiento de cada una de ellas. Se pueden categorizar las herramientas en función del tipo de trabajo que realizan: de montaje, sujeción, golpe, corte, unión y medición y trazo.
Herramientas de montaje[editar]
Los destornilladores, cuya función consiste en apretar o aflojar tornillos y su funcionamiento puede ser manual o mediante un motor eléctrico o neumático, pero en ambos casos la punta del desarmador debe ajustarse a la ranura del tornillo para evitar que se deforme. Esta herramienta puede soportar grandes esfuerzos de torsión, dependiendo de su tamaño y de la calidad del acero. Sin embargo debe seleccionarse el más adecuado.
Las llaves fijas, que cumplen con la función de apretar o aflojar tornillos o tuercas de forma hexagonal, cuadrada o especiales. Estas pueden operarse de forma manual o por medio de un motor eléctrico o neumático pero, en cualquier caso, demanda que la boca fija o la adaptación de una llave ajustable deba coincidir con la medida de la tuerca o cabeza del tornillo. Una vez que se selecciona la llave adecuada y es colocada, se jalará de ésta para aflojar o apretar. En algunos trabajos de montaje y desmontaje se necesita que los tornillos y tuercas se aprieten con precisión, según las especificaciones del fabricante, para evitar deformaciones en los elementos de su mecanismo. Para esto se usa un torquímetro. Las especificaciones se encuentran en el indicador graduado.
Las llaves ajustables, cuya característica principal es que pueden adaptarse a muchas medidas de tornillos o tuercas distintas, que funcionan con una de sus mordazas deslizables. Para los tubos de diferentes diámetros se usa la llave para tubo, conocida también como estilson. Se debe aclarar que algunos tipos de tubos para instalaciones hidráulicas, además de funcionar como conductores, tienen en sus extremos cuerdas cónicas que les sirven como tuercas y tornillos.
Herramientas de sujeción[editar]
Existen por lo menos dos:
Los tornillos, que sirven para sujetar piezas que se van a cortar, limar, doblar, etcétera. El funcionamiento, en el caso de los tornillos, la pieza que se va a sujetar se coloca entre las mordazas y se gira el tornillo por medio de una palanca para cerrar las mordazas.
Las pinzas o alicates, cuya función es sujetar piezas y su funcionamiento es el siguiente: La pieza se toma con las mordazas y por el otro extremo se aprieta o sujeta. Algunos alicates, además de sujetar, sirven para estirar, doblar y cortar cables y alambres; otros, como los de los electricistas están aislados por el lado contrario al de las mordazas. Los de extensión se ajustan a diferentes dimensiones. Los alicates no se deben usar para apretar o aflojar tornillos ni tomar piezas templadas o cementadas; pues en el primer caso destruimos los hexágonos o cuadrados de las tuercas, y en el segundo, dañamos la mordaza. Una regla muy importante es que los alicates deben estar libres de grasa o aceite a la hora de operarlos.
Herramientas de golpe[editar]
Las herramientas de golpe o percusión son empleadas para golpear objetos como el martillo , el mazo , etc. El martillo sirve para golpear, remachar, conformar, estirar, doblar, enderezar, etcétera las siguientes herramientas: 1) el martillo de mano 2) el formón 3) el pico 4) la bola de demolición 5) la mandarria 6) el mazo 7) destornillador de impacto 8) extractor con maza 9) troquel 10) martillo neumático
Herramientas de corte[editar]
Existen distintos tipos:
La lima, que sirve para desbastar, ajustar y pulir superficies metálicas, plásticos, madera, etc. Estas son herramientas de corte y éstas son hechas con pequeños dientes (picado) colocados en las caras del cuerpo o de la lima. Las limas se clasifican por su picado: éste puede ser sencillo, cuando sólo tiene una hilera de dientes, o doble, cuando tiene dos hileras de dientes. Éstos pueden estar grabados con diferentes profundidades, por lo que reciben distintos nombres: gruesa, bastarda, fina o escofina. Las limas también se clasifican por su forma en tablas, redondas, triangulares, cuadradas y otras que se usan en trabajos muy especializados, como en el de ajuste de banco, en la hojalatero y en la relojería.
Las sierras, cuya función consiste en cortar materiales suaves con desprendimiento de viruta. Su operación puede ser manual o por medio de un motor eléctrico , pero, en cualquier caso, son hojas de acero de diferentes tipos y tamaños. Se usan para cortar diferentes tipos de maderas, así como plásticos, laminados, láminas acanaladas de fibra de vidrio etc. Dentro de este grupo se encuentra el arco para calar.
La segueta, la cual corta materiales con desprendimiento de viruta. Esta es un arco de fierro que tiene un soporte para operarse y dos tornillos con mariposa para recibir la segueta y tensarla. Ésta es una hoja de acero con dos orificios en sus extremos, con los cuales se acopla el arco, y en un canto tiene una hilera de dientes que están inclinados para un lado y otro. Éstos se conocen como triscado, y sirven para que la hoja no se atasque en la ranura, y no se corra el riesgo de que la segueta se rompa. Al operar el arco con segueta los dientes se deben orientar hacia el lado opuesto del soporte, el arco se empuña con ambas manos y se hace el avance de corte hacia adelante, aplicando presión contra la pieza, y al retroceder se suprime la presión. Al iniciar el corte se recomienda que un tramo pequeño de dientes empiece el corte, orientándose con la uña del pulgar de la mano izquierda. Una vez inclinado el corte se continúa manteniendo un ritmo sin acelerar demasiado. Se recomienda 35 ciclos por minuto. La selección del número de dientes de la segueta debe estar en función del espesor del material que se vaya a cortar y el tipo de éste.
El cepillo de madera corta y sirve para ajustar madera. Su operación puede ser manual o a través de un motor eléctrico pero en cualquier caso es una cara rectificada de madera o fundición gris. Tiene una hoja que desprende virutas. El operario según sus necesidades le va dando forma a la pieza. Se debe añadir que la garlopa es igualmente un cepillo de madera pero más grande.
Los cinceles y formones sirven para desprender pequeños fragmento de material. Son de acero de forma hexagonal, en la que se conforma la punta y se templa el filo. Presenta ángulos de corte de 60 o 70° y en el otro extremo del filo tiene una reducción, que es con la que se golpea. Los tipos de cincel dependen de la forma de su filo (recto, redondo, estrella) y a su tamaño. Al usar un cincel se puede golpear con martillo o como punta de martillo neumático y se deben escoger pequeñas porciones de material. La inclinación para cortar con el cincel es muy importante y depende del tipo de material. El cortacaliente es una herramienta para cortar materiales a altas temperaturas en estado pastoso. No olvides usar las gafas de protección si vas a trabajar con cinceles u otra herramienta.
Las brocas y sacabocados se usan para barrenar materiales, es decir, cortar en círculos. Es un cilindro de acero en el que se ha labrado una ranura helicoidal y que termina en un cono, el cual presenta un filo. Las brocas se pueden clasificar por su diámetro (Fi), por el tipo de vástago cilíndrico y cónico y por el tipo de material que se va a cortar. Éstos pueden ser: fierro, acero inoxidable, concreto, ladrillo, vidrio, etcétera. En la nomenclatura de la broca podemos destacar los siguientes nombres: el punto, que es el que inicia el barrenado; los gavilanes son las aristas de corte; el margen, que es la única parte de la broca que entra en contacto con las paredes del barrenado, de esta forma se evita el calentamiento y va rectificando; las dos ranuras helicoidales sirven para lubricar el corte y permitir que salga la viruta; el vástago, ya sea el cónico o recto, es para que la broca sea sujetada. El filo de la broca está en función de la dureza de los materiales que se vayan a barrenar.
El taladro que hace girar las brocas para que estas corten. Su operación puede ser manual o por medio de un motor eléctrico o un dispositivo neumático. Su mecanismo generalmente e compuesto por una flecha. Ésta tiene un lado sujetador de brocas (chock) o conos; y por el otro un juego de engranes o un tren poleas y banda o el dispositivo neumático, y.
Las tijeras, instrumento el cual corta sin desprendimiento de material. Se emplea para cortar lámina, cartones, telas, plásticos, laminados, etc. Está formado por dos cuchillas de corte, unidas por el centro con un tornillo con tuerca. Existen en el mercado de diferentes tipos y tamaños.
Herramientas de unión[editar]
Los sopletes y cautines sirven para unir piezas en un proceso de fabricación. Su operación es manual. En el caso de los sopletes proporciona calor directamente a la pieza o bien a través de un cautín para lograr una soldadura blanda (falsa). En los cautines eléctricos se emplea una resistencia para generar calor. Estos cautines generalmente se usan para soldar alambres de cobre o elementos electrónicos. La pistola de silicona, ya sea para aplicarlo en estado pastoso o sólido, sirve para unir una enorme variedad de materiales. En el caso de las barras sólidas la pistola tiene una resistencia que sirve para fundirlas.tambien los clavos sirven para unir
Herramientas de medición y trazo[editar]
Finalmente encontramos los instrumentos de medición y trazo, los cuales se usan con la finalidad de trazar, diagnosticar y comprobar proporciones de un proceso de diseño, de fabricación, de control, de investigación, y mantenimiento. Cuyo funcionamiento dice lo siguiente: Las actividades de medición consisten en comparar una magnitud con otra de valor conocido, y lo que se mide son longitudes (largo, ancho y alto), ángulos y profundidad de un objeto técnico; o bien se hacen mediciones eléctricas, electrónicas y de rendimiento de un motor. Las medidas que se obtienen de esta actividad no son del todo exactas, debido a la precisión de los instrumentos, es decir, el tipo de éstos. No es lo mismo medir con una regla que nos da precisiones de milímetro a un vernier que nos mide en décimas de milímetro. Otro factor que puede afectar la precisión de las mediciones es la experiencia del operario que emplee los instrumentos. Los sistemas de medición que se usan son el métrico decimal y el inglés. Para trasladar medidas nos valemos de los compases: puntas (interiores y exteriores) y, en ángulos, con una escuadra falsa. El trazo consiste en trasladar los datos de la representación gráfica de un proyecto a una pieza, para posteriormente preformarla y conformarla. Para llevar a cabo esto se necesita un manual, reglas, escuadras, compás de vara, gramil y rayador.3

Ha recibido 1019 puntos

Vótalo:

PAN (30.000 a.C/10.000 a.C)

19. PAN (30.000 a.C/10.000 a.C)

https://www.youtube.com/watch?v=84V8IGQbS4M

El pan (del latín panis) es un alimento básico que forma parte de la dieta tradicional en Europa, Medio Oriente, India, América y Oceanía. Se suele preparar mediante el horneado de una masa, elaborada fundamentalmente con harina de cereales, sal y agua. La mezcla, en la mayoría de las ocasiones... Ver mas
El pan (del latín panis) es un alimento básico que forma parte de la dieta tradicional en Europa, Medio Oriente, India, América y Oceanía. Se suele preparar mediante el horneado de una masa, elaborada fundamentalmente con harina de cereales, sal y agua. La mezcla, en la mayoría de las ocasiones, suele contener levaduras para que fermente la masa y sea más esponjosa y tierna.1
El cereal más utilizado para la elaboración del pan es la harina de trigo. También se utiliza el centeno, la cebada, el maíz y el arroz. Existen muchos tipos de pan que pueden contener otros ingredientes, como grasas de diferentes tipos (tocino de cerdo o de vaca, mantequilla, aceite de oliva), huevos, azúcar, especias, frutas, frutas secas (como por ejemplo pasas), verduras (como cebollas), o semillas diversas.
La adición de la levadura provoca la fermentación de la masa antes del horneado, y como consecuencia, le proporciona un volumen y una esponjosidad debido a la producción de pequeñas burbujas de dióxido de carbono (CO2) que se quedan inmersas entre la masa húmeda de la harina.
Al pan elaborado sin el empleo de levadura se le llama pan ácimo y, debido a esa falta de levadura, carece de la esponjosidad típica de los panes «hinchados» o «levados». Es muy posible que las elaboraciones más primitivas de pan no llevaran levadura, y la harina consistiese en granos toscamente molidos mezclados con agua que se dejaban secar al sol ó que acababan entre las cenizas de un fuego.2 Los panes planos, muy populares en algunas culturas, es muy posible que sean los más antiguos.3 Una variante del pan con denominación propia, son las galletas y los pasteles, que poseen diferentes masas azucaradas. Es muy posible que surgieran del conocimiento panadero como una necesidad de hacer panes «más portables» y nutritivos.4
A la masa se le puede dar diferentes formas, debido al empleo de diversos moldes y técnicas de amasado. De esta forma existen: las barras, las trenzas, los aros, etc.
El pan ha sido tan importante en la alimentación humana, que se considera como sinónimo de alimento en muchas culturas. Asimismo, participa en muchos rituales religiosos y sociales, como el matzoh, en la pascua judía, la hostia en la eucaristía cristiana, el rito de bienvenida de los pueblos eslavos que involucra el pan y la sal, etcétera.
Antiguamente en las zonas rurales, el pan era elaborado en los núcleos familiares y poco a poco el establecimiento para dispensar el pan, la panadería, ha ido cobrando importancia en las zonas urbanas.3 Hoy en día existen electrodomésticos específicos con los que se puede elaborar pan de forma muy sencilla, por ejemplo con una máquina panificadora.
En la actualidad el pan es uno de los alimentos básicos que puede encontrarse en casi cualquier tienda de alimentación y grandes superficies. Su valor hace que se puedan calcular índices económicos de referencia, como el índice de precios al consumo (IPC), empleado para determinar la evolución del costo de vida en las naciones.
Índice [ocultar]
1 Historia
2 Ingredientes del pan
2.1 Harina
2.2 Agua
2.3 Sal
2.4 Levadura
2.5 Otros ingredientes
3 Elaboración del pan
3.1 Formación de la masa
3.2 Fermentación y reposo
3.3 Horneado
3.4 Enfriamiento
4 Almacenamiento
5 Usos del pan
6 Sabor del pan
7 Tipos de pan
7.1 Panes sin levadura
7.2 Panes de masa ácida
7.3 Panes levados
7.4 Panes planos
7.5 Panes sin gluten
7.6 Panes al vapor/fritos
7.7 Pan rápido
8 Pan y salud
8.1 Enfermedades asociadas al consumo de pan
8.2 Nutrición
9 Tendencias modernas del pan
10 Consumo de pan en el mundo
10.1 Consumo en Europa
10.2 Consumo en América
10.3 Consumo en Asia
10.4 Consumo en África
11 El pan en la cultura popular
11.1 Pan y la política
11.2 Pan y religión
11.3 Cómics
11.4 Cine / TV
11.5 Literatura
12 Véase también
13 Referencias
14 Bibliografía
15 Enlaces externos
Historia[editar]
Artículo principal: Historia del pan

Escenas de elaboración de pan en la Tumba de Ramsés III. Valle de los Reyes, Egipto.
El pan fue el alimento básico de la Humanidad desde la prehistoria. Algunos autores se imaginan que los inicios del pan, podría haber sido una masa de granos semi-molidos y ligeramente humedecida, que podría haberse cocido al sol, sobre una piedra caliente, o simplemente haberse dejado abandonada junto a un fuego, o fuente de calor diversa.4
La evolución histórica del pan se fundamenta en tres vías posibles: por un lado la mejora y evolución en los elementos mecánicos que pulverizan los granos (los molinos, etc.), por otro, la mejora en los microorganismos que pueblan la levadura y finalmente, la evolución de los hornos y los elementos que proporcionan focos de calor (hornos).5
Probablemente, los primeros panes estarían hechos con harinas de bellotas o de hayucos. Los arqueólogos han excavado y encontrado fragmentos de pan ácimo (denominado también pan cenzeño) en los yacimientos de los poblados cercanos a los lagos suizos. Se sabe que los egipcios elaboraban pan desde hace mucho tiempo, y de ellos datan también las primeras evidencias arqueológicas de la utilización de la levadura en el pan así como el empleo de hornos. Se cree que descubrieron la fermentación por casualidad.3 El pan para los egipcios era tan importante que se consideraba como una moneda para pagar los jornales.

Pan extraído de las ruinas de Pompeya.
En Roma, ya en la República, había hornos públicos. Para los legionarios romanos el pan era un alimento habitual y era corriente que su dieta fuese en gran medida aceitunas y pan. Se les entregaba tres libras de trigo al día, que trituraban en un molinillo de mano compartido por un grupo limitado de soldados. De la harina se hacía el bucellatum (pan con forma de anillo muy similar al actual bagel) y se metía en el horno para hacer pan. En algunas regiones que no formaban parte del imperio como las actuales Alemania o Suecia, algunos habitantes que habían combatido en el ejército romano adoptaban el consumo de pan, y de aquí se extendía a sectores de la población. Su nombre proviene del latín pannus lo que significa masa blanca. Este gran consumo de pan durante el Imperio romano implicó la gran importancia que tuvo el cultivo y comercio del trigo.6
Con la caída del Imperio romano se produjo un desabastecimiento de trigo en casi toda Europa, que ya se había acostumbrado de manera masiva a su consumo. Las exportaciones hacia el norte desaparecieron por completo. Prueba de la amplia difusión del pan en esa época es la palabra inglesa «lady» que significa en inglés antiguo «la persona que amasa el pan».7 En Escandinavia, ante la escasez de trigo, la población tuvo que acostumbrarse a elaborar panes de centeno y de cebada, siendo corriente que se le añadiese a la masa corteza de pino molida.

Reparto de pan entre campesinos, del Livre du roi Modus et de la reine Ratio, Francia, Siglo XIV (Bibliothèque nationale).
En la Edad Media empiezan a elaborarse distintos tipos de pan, ante la escasez de trigo, y como consecuencia de ello, comienza su comercio. El pan blanco era un privilegio de los ricos, y el pan negro de cebada, centeno o avena, era para el resto de la población. Se hacía a mano, en el propio hogar o en hornos públicos. La ampliación progresiva del sistema alimentario introdujo cambios en los hábitos dietéticos. El pan dejó de ser el elemento básico del régimen del conjunto de la población. Una mayor variedad de productos que permitía un mejor equilibrio en la alimentación, fortaleció la robustez y la talla de los individuos. En la elaboración del pan empezó a emplearse algún tipo de maquinaria. Una de las elaboraciones más típicas era el sop: pan remojado en un líquido.
El pan fue sufriendo mejoras en su molienda, su horneado y poco a poco fue de un producto elaborado artesanalmente a un producto industrial al que se le añaden diversos aditivos. En la actualidad la maquinaria facilita en gran medida el trabajo haciendo que el pan carezca de penosas tareas; se emplean amasadoras, hornos automáticos, transportadoras, enfriadoras, cortadoras y hasta máquinas para envolver. A finales del siglo XX se popularizaron los panes integrales o negros.
Ingredientes del pan[editar]
Los ingredientes básicos, y necesarios para la elaboración del pan son solo dos: harina y agua. La sal es un componente opcional que se emplea para dar sabor y fortalecer la masa. En algunos lugares no se emplea ni siquiera en la elaboración del pan (los famosos por sus características son los panes elaborados en la Toscana, Italia).8 Según el tipo de pan que se trate se puede incluir como cuarto ingrediente la levadura. Las culturas, las tradiciones, y las características culinarias de las regiones inducen diversas variantes respecto a los ingredientes; casi siempre la elaboración del pan de una forma determinada y proporciona un carácter propio y característico a una región, o a una gastronomía.
Harina[editar]
Artículo principal: Harina

Molienda manual de trigo en un festival folclórico de Eslovaquia.
La harina es el principal ingrediente del pan. Consta básicamente de un cereal (o una mezcla de ellos) que ha sido molido finamente hasta llegar a una textura en forma de polvo (por regla general es solo el endosperma del cereal). Dependiendo del uso final que se quiera dar a la harina: pastas, panadería, repostería, se suele moler con mayor o menor intensidad hasta lograr un polvo de una fineza extrema. Se suele comercializar en paquetes que rondan el kilogramo, el embalaje se suele presentar en papel o cartón. Las harinas comercializadas en la actualidad suelen llevar una mezcla de diversos tipos de cereal molidos, y por regla general suelen estar enriquecidas.9
Para comprender el proceso de panificación conviene entender la harina como un conjunto de dos substancias:
Gluten - Corresponden al conjunto de proteínas insolubles en agua procedentes de los cereales molidos, son las responsables de proporcionar a la masa un aspecto compacto similar al del chicle. El gluten es también el responsable de atrapar el dióxido de carbono liberado durante la fermentación y provocar el 'hinchamiento' de la masa. Cuando estas proteínas se encuentran en un medio seco son inertes, pero en medios acuosos las cadenas de aminoácidos empiezan a alinearse formando redes de proteínas que son las que dan la textura final a la masa. El gluten se compone principalmente de glutenina (proporciona resistencia y fortaleza) y la gliadina (es la que proporciona la cualidad pegajosa a la masa). El gluten por sí mismo no aporta aroma al pan.10 El contenido de gluten en una harina, por sí solo, no es definidor de la cualidad de una harina, dos harinas con el mismo contenido de gluten se comportan de formas muy diferentes.
Almidón - El almidón representa aproximadamente el 70 % de peso de la harina y posee como funcionalidad la energía que necesitará la futura planta para poder crecer. El almidón se presenta en forma de gránulos que poseen dos moléculas de almidón distintas: la amilosa y la amilopectina.11 Estas dos moléculas se organizan en los gránulos con una estructura cuasi-cristalina que absorbe poca agua.12 Los almidones cumplen la misión de repartir la humedad de forma homogénea durante el amasado y de proporcionar una estructura semi-sólida a la masa. La harina junto con los lípidos existentes en los granos son los que proporcionan los olores característicos del pan.
El porcentaje de gluten define a veces los tipos de harina: por ejemplo las harinas de fuerza son aquellas que poseen un alto contenido de gluten (puede superar el 11 % de peso total), es por esta razón que un alto contenido de gluten hace que el amasado requiera más fuerza ya que la masa de estas harinas es más resistente al estirado manual. Al contrario, las harinas débiles son aquellas con un contenido bajo en gluten que proporcionan masas más fáciles de manipular. Algunas variedades de cereales contienen más gluten que otras, por ejemplo: la harina de trigo es rica en gluten y por ello importante para crear una textura esponjosa, por el contrario las harinas de cebada o de avena poseen menos gluten y menos capacidad de retener el CO2 (resultando masas menos esponjosas).13 Es corriente también encontrar mezclas de harinas de trigo con otros cereales pobres de gluten, incluso es habitual que se mezclen harinas de trigo de diferentes procedencias, y riqueza en gluten, para obtener harinas muy ricas destinadas a panes específicos. Existen clasificaciones de harina especiales que contienen indicaciones de la pureza y de la cantidad de endosperma, así como el contenido en cenizas. Las clasificaciones más reconocidas internacionalmente son la francesa y la estadounidense.
La harina posee también otras substancias (en un porcentaje en peso inferior al 1 %), como puede ser una proporción diminuta de lípidos, su misión es favorecer las uniones de las proteínas del gluten (gliadina y glutenina), contiene también otros hidratos de carbono (aparte del almidón) y algunas enzimas: las amilasas, proteasas (actúan sobre las proteínas del gluten, transformándolas en cadenas más cortas, la sal inhibe la acción de esta enzima) y las lipasas.13
Agua[editar]
Artículo principal: Agua

El agua es uno de los ingredientes indispensables en la elaboración del pan, su misión: activar los mecanismos de formación de la masa.
El agua tiene como misión activar las proteínas de la harina para que la masa adquiera textura blanda y moldeable. Posee además la capacidad disolvente acuoso de las substancias añadidas a la masa, siendo además necesaria para la marcha de la fermentación. La composición química del agua empleada afecta a las cualidades del pan. La proporción de agua empleada en la elaboración de la masa influencia la consistencia final. Suele aplicarse agua de tal forma que suponga un 43 % del volumen total de la masa (o lo que es lo mismo un 66,6 % del peso de la harina, o la harina es 1 y 1/2 veces el peso de agua).13 Si se pone un contenido acuoso inferior al 43 % la masa es menos extensible y más densa. No obstante la cantidad de agua que puede absorber una harina depende del tipo de cereal empleado en su elaboración y de la composición de proteínas (por ejemplo las harinas de alto contenido proteico absorben más agua).14 No obstante el tipo de pan puede influenciar también la proporción final de agua en la masa y puede acabar siendo un tema de preferencia del propio panadero que elabora el pan. Los panaderos usan un sistema de porcentajes denominado tasa de hidratación, también conocido como «porcentaje de panadero»; en el que el peso de la harina representa un porcentaje de 100 y el resto de los ingredientes se miden como porcentajes sobre la harina. El agua puede representar desde un cincuenta por ciento en panes ligeros, hasta un setenta por ciento en panes más artesanos. Algunos panaderos pueden llegar al ochenta por ciento de agua.
La calidad y composición de las aguas influyen en la formación de la masa, por ejemplo se sabe que las aguas con un carácter ácido endurecen la red de gluten, mientras que las alcalinas suavizan la masa.1 Esta es la razón por la que a veces se emplean aguas minerales o filtradas en la elaboración de la masa para evitar que estas variables afecten negativamente a la masa final; matando, o inhibiendo, por ejemplo las levaduras. Las aguas fluoradas pueden llegar a detener la fermentación.15 El medio líquido de la mezcla puede también contener otras substancias líquidas con una función similar a la del agua, como puede ser la leche, el suero de mantequilla, bebidas alcohólicas como puede ser el vino o la cerveza o whisky de malta e incluso mezclas avinagradas diversas.
Algunas investigaciones muestran que el proceso de hidratación de la masa tras su mezcla con el agua puede llevar entre 10 y 20 minutos, tiempo que es necesario para reposar la masa y dejar que se 'impregne' por completo. Conviene retrasar la adición de levadura hasta que la masa se haya hidratado bien, tras este periodo de 'reposo'.16 La dureza del agua puede influir en la elaboración del pan debido a que poseen sales minerales que favorecen la fermentación con las levaduras, por regla general las aguas de dureza media son preferibles para la elaboración del pan.17 Si es el agua dura la masa tendrá dificultad para llegar a su punto de resistencia.
Sal[editar]
Artículo principal: Sal
La sal es un ingrediente opcional en algunos panes, la misión de la sal es por una parte la de reforzar los sabores y aromas del propio pan, y por otra parte afectar a la textura final de la masa (pueden alcanzar hasta un 2 % del peso total de la harina).2 Los panes tradicionales no suelen llevar sal, sin embargo algunas masas como los cruasanes, o los brioche, poseen grandes cantidades (por encima del 3 %) con el objeto de reforzar y balancear el sabor de la mantequilla. Se suelen emplear en la elaboración de panes sales marinas a ser posible con poco grado de refinamiento y que se mezclan en las primeras fases de amasamiento de la harina.10 Sea como sea, la mayoría de las recetas que añaden la sal hablan del empleo de sales no-refinadas, como pueden ser la sal negra, la sal ahumada, etcétera. La sal contribuye de una forma indirecta a la formación del color marrón de la corteza del pan, debido a que retarda la fermentación y esto genera un "exceso" de azúcares que favorecen durante el horneado la formación de estos colores dorados de la corteza. La sal tiene además un ligero efecto fungicida, su presencia en el pan permite alargar su vida comestible.16
En algunos casos, se aconseja añadir la sal tras el completo fermentado del pan para evitar la muerte o inhibición de las levaduras (proceso conocido como autolisis).16 En el método de autolisis la sal y la levadura se añaden tras un reposo de entre 10 y 20 minutos. Algunos autores opinan que la sal retrasa el efecto de la levadura, prolongando de esta forma la fermentación (las levaduras buscan los azúcares de la harina y la sal hace más difícil el trabajo fermentativo).15 La sal se emplea a veces como un elemento decorativo y suele ubicarse en forma de gruesos granos en la superficie de la corteza: como es en el caso de los Pretzel.
El consumo de sal que va unido al riesgo de padecer Hipertensión arterial, ha llevado a las autoridades sanitarias de España y de otros países europeos como Reino Unido, Francia y Alemania a establecer acuerdos con distintas asociaciones de fabricantes de pan, para limitar el contenido de sal en el pan. De esta manera, en los últimos cuatro años, en España, el contenido de sal se ha reducido desde los 22 gramos por kilo de harina que tenía en 2005 hasta 16,3 que tiene en el 2009, lo que significa un descenso del 26,4 %.18
Levadura[editar]
Artículo principal: Levadura de panadería

Cubos de levadura fresca (presentación más habitual).

Preparación de una levadura madre (típico el Mischbrot alemán).
La levadura es un conjunto de microorganismos unicelulares que tienen por objeto alimentarse del almidón y de los azúcares existentes en la harina. Las levaduras forman parte de la familia de los hongos. Este proceso metabólico da lugar a la fermentación alcohólica cuyo resultado es etanol (cuya fórmula química es: CH3-CH2-OH), dióxido de carbono (CO2) en forma de gas. El gas liberado hace que la masa del pan se hinche, aumentando de volumen. El alcohol etílico se evapora durante el horneado del pan, debido a las temperaturas alcanzadas en su interior. A pesar de haber empleado las levaduras en la fermentación del pan desde hace ya casi más de 6000 años, fueron tan solo comprendidas hasta el advenimiento de las investigaciones realizadas por Louis Pasteur que dieron luz a la explicación científica de la fermentación como un proceso biológico.3 La clave del empleo de las levaduras es la generación gaseosa que hincha la masa mezcla de harina y agua.13 Se sabe que el proceso de fermentación es altamente dependiente de la temperatura y que se produce a su máxima velocidad a los 35oC. Las levaduras se incorporan durante las primeras etapas de mezcla entre la harina y el agua.
Hoy en día se conocen casi más de 100 especies diferentes denominadas como levaduras; algunas de ellas son responsables de causar infecciones, otras levaduras contribuyen a la degeneración y putrefacción de los alimentos. De todas ellas, una especie en particular es la responsable de causar la fermentación del pan, se trata de la Saccharomyces cerevisiae. Esta levadura es igualmente la causante de la fermentación del vino y de la cerveza. El metabolismo de la levadura puede expresarse en forma de reacción química sencilla de la siguiente forma:
C6H12O6 → 2 C2H5-OH + 2 CO2
Lo que significa: una molécula de glucosa (que puede ser el almidón de la harina) mediante la acción del metabolismo de las levaduras acaba en dos moléculas de etanol y dos de dióxido de carbono (gas). El gas queda atrapado en la red de la gluteina y aumenta el volumen de la masa (disminuyendo su densidad).
Bajo la denominación de levaduras podemos encontrarnos tres tipos (siempre del tipo s. cerevisiae) en los establecimientos:
Levadura seca: se obtiene de los tanques de fermentación y posteriormente se desecan para detener los procesos metabólicos de las levaduras. Las levaduras secas se reactivan cuando son introducidas en un medio acuoso templado (25 °C-30 °C) de nuevo antes de ser mezcladas en la masa, en este caso se denominan levaduras activas. Existen levaduras denominadas como instantáneas que no necesitan ser prehidratadas y que se mezclan con la harina y el agua al mismo tiempo, por regla general proporcionan dióxido de carbono de forma más vigorosa que las levaduras activas. Los panaderos profesionales emplean cada vez más este tipo de levaduras secas instantáneas debido la conveniencia en la rapidez de su trabajo así como su larga vida media.14
Levadura fresca: obtenida inmediatamente de una fermentación y posteriormente refrigerada en forma de cubos (de 50 g aproximadamente) con textura de pasta comprimida que poseen una vida útil de escasas semanas. Los elaboradores de pan suelen preferir este tipo de levadura, el problema es que posee una vida media inferior a otras levaduras.10 La levadura fresca es similar a la levadura seca, la única consideración es que debe emplearse el doble; por ejemplo, si una receta de pan indica 25 gramos de levadura seca, en ese caso se empleará el doble de levadura fresca (es decir 50 g).14
Levadura química: se trata de compuestos químicos capaces de generar gases (generalmente dióxido de carbono), tal y como lo haría una levadura. En algunos casos el componente alcalino denominado bicarbonato de sodio (NaHCO3, denominado en inglés como: baking soda) mezclado con un medio ácido como puede ser zumo de limón, o de frutas, chocolate, etcétera.
Levaduras naturales: son aquellas presentes en el propio cereal, en la atmósfera, etcétera. Estas levaduras se caracterizan por un lento proceso de fermentación (proporcionan menos dióxido de carbono), pero proporcionan un 'sabor clásico' al pan realizado con ellas.
La cantidad de levadura que emplea el panadero puede variar dependiendo del tipo de masa que se quiera elaborar y puede oscilar entre el 0,5-4 % del peso de la harina (en el caso de levaduras secas se divide entre dos la cantidad total empleada).2 A veces se suele incluir prefermentadores (en inglés se denomina poolish) a la harina con el objeto de mejorar los efectos de las levaduras en la harinas y para ello se emplean diversos métodos como puede ser el fermento de masa ácida que se trata de un cultivo de las levaduras existentes en el aire para que se cultiven en la harina y acaben formando un fermento (denominado a veces también como masa madre), la formación de este fermento genera dióxido de carbono (CO2) y ácido láctico (H3C-CH(OH)-COOH). Las especies de levaduras empleadas en este tipo de levaduras madre es el Lactobacillus plantarum, L. delbrueckii, L. sanfrancisco. Tradicionalmente las levaduras se incorporaban a la masa utilizando los restos de la masa del pan elaborado durante el día anterior, en lo que se denominaba masa madre. Otras prefermentaciones populares en el área mediterránea suelen ser el biga italiano.
Otros ingredientes[editar]
Se suelen añadir otros ingredientes a los anteriormente mencionados, bien con el objeto de mejorar la fermentación: como puede ser el caso del azúcar, o bien con el objeto de mejorar el sabor, para eso se añaden en algunos lugares especias diversas (pan especiado). Es frecuente que se le añadan otros elementos como grasas (mantequilla, tocino de cerdo), semillas diversas (pipas de girasol, sésamo, etc.), frutas (banana, cebollas), leche en polvo, etcétera. También se suele añadir huevo, bien sea la yema o la clara. En algunos casos resulta interesante que se le añadan los granos del cereal ligeramente molidos e incluso malteados (añade enzimas alfa-amilasas que favorecen el fermentado de la masa).10 Se suelen añadir en algunas zonas del Mediterráneo unas aceitunas molidas. En algunos casos es posible incluir algún embutido o incluso fiambre picado, como puede ser chorizo (como en el caso del bollo preñao) o jamón, pudiendo a llegar a poner en algunas culturas hasta pescado (como en el caso del Kalakukko). Esta forma de rellenar el pan da lugar a una familia muy amplia de alimentos denominado dumplings: empanadas, hogazas, el dampfnudel, el calzone.
Los panes de elaboración industrial poseen cantidades apreciables de leche (o incluso la adición de leche en polvo) con el objetivo de incrementar el contenido de lisina en el pan.19 En algunos casos el pan es considerado desde la industria como un alimento funcional y se le añaden vitaminas (suele denominarse a este tipo como "pan enriquecido").20 El contenido de azúcar es en el caso del pan de molde muy acusado. Algunos ingredientes de la panadería industrial suelen ser enzimas diversos como la amilasa, que se añade para favorecer la fermentación y que el pan se haga de forma más homogénea. Una de las aplicaciones más frecuentes de la industria bioquímica en el uso de enzimas es la panadería.21 22 Algunos enzimas como la fitasa fúngica se añaden al pan con el objetivo de reducir el contenido de ácido fítico, el cual se considera una sustancia antinutritiva por disminuir la biodisponibilidad de minerales tales como calcio, zinc, magnesio, hierro y fósforo.20 Se suele incluir en las harinas la α-amilasa ya que cambia las propiedades químicas (degrada los azúcares complejos del pan en azúcares más sencillos en la fermentación) y físicas (en la miga, la hace más suave).23 Se emplea la proteasa, lipoxidasas. El empleo de diversos productos que se mezclan con la harina y que mejoran los rendimientos de producción del pan se denominan mejoradores para pan y se llevan empleando en la industria panadera desde los años 1950. Otros de los aditivos empleados son los antioxidantes con el objeto de mantener las propiedades del pan lo más estables posibles, uno de los más polémicos empleados son el hidroxibutilanisol (BHA) y el hidroxibutiltolueno (BHT).24 25
Se suele añadir a la masa ácido ascórbico (vitamina C) con el objeto de reforzar las propiedades físicas del pan (útil en especial en grandes piezas) al mismo tiempo que acelerar su maduración, el ácido ascórbico se elimina por completo durante el horneado. La lecitina suele añadírsele por ser un emulsificante. El propionato cálcico como fungicida evitando la aparición de hongos.
Elaboración del pan[editar]
La elaboración del pan es un conjunto de varios procesos en cadena. Comienza con los ingredientes en sus proporciones justas y las herramientas para su elaboración dispuestas para realizar las operaciones (mise en place), y acaba con el pan listo para ser servido. Dependiendo de los panaderos se añaden más o menos procesos a la elaboración, aunque básicamente hay cuatro:
Mezcla de la harina con el agua (así como otros ingredientes), proceso de trabajar la masa.
Reposo para hacer 'elevar' la masa (solo si se incluyó levadura). A este proceso se le denomina a veces como leudado.
Horneado en el que simplemente se somete durante un período la masa a una fuente de calor para que se cocine.
Enfriado. Tras el horneado se deja reposar el pan hasta que alcance la temperatura ambiente.
Cada paso del proceso permite tomar decisiones acerca de la textura y sabor final que se quiera dar al pan. En la industria panadera hodierna existen procesos estandarizados desde la década de 1960 tal y como el proceso de panificación Chorleywood (abreviadamente CBP del inglés Chorleywood Bread Process) que permite elaborar pan industrial a gran rapidez debido a las veloces fermentaciones que realiza (del orden de los 20 minutos). Otro paso industrial es el denominado: proceso de esponja masa muy empleado en la elaboración industrial de los panes de molde. Por regla general los libros que mencionan los procesos de panificación si requieren precisión suelen hablar de las cantidades en unidades de peso, no de volumen.

Formación de la masa[editar]
Artículo principal: Masa (alimento)

Mezcla mediante una batidora amasadora de la harina con agua y mantequilla (masa pastelera).
La formación de la masa se compone de dos subprocesos: la mezcla y el trabajado (amasado). La masa comienza a formarse justo en el instante cuando se produce mezcla de la harina con el agua. En este momento el medio acuoso permite que aparezcan algunas reacciones químicas que transforman la mezcla en una masa casi 'fibrosa', esto es debido a las proteínas de la harina (gluten) que empiezan a alinearse en cientos de cadenas. Al realizarse la mezcla entre la harina y el agua, formándose la primera masa antes de ser trabajada; algunos panaderos opinan que es mejor dejar reposar aproximadamente durante 20 minutos con el objeto de permitir que la mezcla se haga homogénea y se hidrate por completo (permite actuar a las moléculas de glutenina y de gliadina en la harina).16 La elaboración de la masa se puede hacer a mano o mediante el empleo de un mezclador o incluso de un robot de cocina (estos últimos tienen la ventaja de exponer la masa durante poco tiempo al oxígeno de la atmósfera). Algunos panaderos mencionan la posibilidad de airear la harina antes de ser mezclada para que pueda favorecer la acción del amasado.17 Durante la fase de mezclas algunas enzimas (lipooxigenasa y polifenol oxidasa) actúan en la destrucción de los carotenoides.26 Al acto de trabajar la masa se denomina amasar. En otros idiomas este verbo es más específico de la masa de harina, como puede ser kneading (knead) en inglés que viene a significar algo así como 'comprimir en una bola', en francés se denomina pétrissage.
Se denomina amasado a la mezcla adecuada de los ingredientes que supone además una incorporación de aire. Es necesario un aporte de energía (trabajo, fuerza de amasado) que se absorbe durante la formación del gluten, provocando un incremento de la Tª, debido a la liberación de energía por orientación de la red de gluten y por la fuerza de rozamiento.
Se pueden dar dos tipos de amasado, un amasado manual, en el cual el aporte de energía es lento y por tanto la temperatura se eleva poco a poco. El otro amasado es el mecánico, donde el aporte de energía es rápido y el aumento de temperatura va en función de la velocidad a la que trabaje la máquina amasadora.
La absorción/liberación de energía depende del contenido proteico de la harina, que también determina la cantidad de agua necesaria.
La masa se trabaja de forma física haciendo primero que se estire con las manos para luego doblarse sobre sí misma, comprimirse (se evita la formación de burbujas de aire) y volver a estirar para volver a doblar y a comprimir, repitiendo el proceso varias veces. Procediendo de esta forma se favorece el alineamiento de las moléculas de gluten haciendo que se fortalezca poco a poco la masa y permita capturar mejor los gases de la fermentación. Esta operación de amasamiento hace que la masa vaya adquiriendo progresivamente 'fortaleza' y sea cada vez más difícil de manipular: las masas con mayor contenido de gluten requieren mayor fuerza en su amasado y es por eso por lo que se denominan masas de fuerza. Que la masa sea 'sobre trabajada' es un problema en la panadería industrial debido al empleo de máquinas especiales para ello: amasadoras. En ocasiones muy raras ocurre este fenómeno cuando se trabaja la masa a mano. La operación de amasado se suele realizar en una superficie aceitada para favorecer el manejo y evitar que la masa pegajosa se adhiera a la superficie.
La adición de otros elementos a la masa como pueda ser mantequilla, aceite, huevos, etc. Por regla general, lo que hace es retrasar el desarrollo de la masa debido al contenido de lípidos. Esta es la razón por la que la elaboración de masas como la del brioche (que poseen desde un 40 % hasta un 70 % de mantequilla en relación con la harina) suelen ser completamente mezcladas antes de que se le añada el azúcar y la mantequilla.
Fenómenos principales durante el amasado:
Formación del gluten: Gliadina y glutenina se hidratan (50 % del agua es captada por las proteínas). Interaccionan entre si y forman la red del gluten.
Activación de las enzimas: Se activan al hidratarse entre ellas las amilasas que actúan rompiendo el almidón formando azúcares.
Hidratación del almidón: Capta el 30 % del agua, se hincha, abriendo su estructura y queda listo para la actuación de las enzimas y para la gelatinización.
Solubilización de los componentes: Azúcares, sales, aminoácidos, ácidos… formándose una solución coloidal.
Incorporación de aire: Necesario para la formación del gluten (oxido-reducción) para la multiplicación de las levaduras, para esponjar el gluten.
Fermentación y reposo[editar]
La fermentación del pan ocurre en diversas etapas. La denominada 'fermentación primaria' empieza a ocurrir justamente tras el amasado y se suele dejar la masa en forma de bola metida en un recipiente para que 'repose' a una temperatura adecuada. Durante esta espera la masa suele adquirir mayor tamaño debido a que la levadura (si se ha incluido) libera dióxido de carbono (CO2) durante su etapa de metabolismo: se dice en este caso que la masa fermenta. La masa parece que se va 'inflando' a medida que avanza el tiempo de 'reposo'. La temperatura de la masa durante esta fase del proceso es muy importante debido a que la actividad metabólica de las levaduras es máxima a los 35 °C,1 pero de la misma forma a esta temperatura se produce CO2 a mayor ritmo pero al mismo tiempo también malos olores. Es por esta razón por la que la mayoría de los libros de panadería sugieren emplear temperaturas inferiores, rondando los 27 °C lo que supone un reposo de aproximadamente dos horas. La temperatura gobierna este proceso de fermentación, a mayor temperatura menor tiempo de reposo. A veces algunos panaderos desean que las levaduras actúen durante el mayor tiempo que sea posible ya que este periodo dilatado con un mayor aroma y sabor al pan. En algunos casos se hace uso de frigorífico.


Masa tras haber sido amasada (izquierda) y tras el reposo de 40 minutos (derecha), se puede comprobar que el aumento de volumen en la masa es apreciable a simple vista.
El final de la fermentación primaria lo indica el volumen de la masa hinchada (se menciona a veces que debe doblar el volumen), la red de gluten se estira hasta llegar a un límite que no puede sobrepasar. Una de las pruebas más populares para comprobar que se ha llegado al límite es presionar la masa con un dedo, y se comprueba que la marca permanece entonces se deduce que el gluten se ha estirado hasta su límite. A veces se emplea en el primer reposo una cesta de mimbre denominada banneton.
En algunos casos se comprueba que una larga fermentación (y por lo tanto reposo) hace que el resultado final del pan sea agradable. Es por esta razón por la que los panaderos de Viena desde la década de 1920 empezaron a experimentar con la posibilidad de dividir los procesos en dos turnos de trabajo: por el día mezclaban, amasaban y moldeaban la masa, por la mañana temprano hacían el horneado. Para poder hacer esto metían los panes moldeados en refrigeradores con el objeto de retrasar la fermentación y poder hacer el horneado por la mañana. Las levaduras se toman casi diez veces más tiempo en fermentar si están el refrigerador, esta práctica de retardo es muy habitual hoy en día.
Tras el reposo se produce una segunda fermentación; antes de que esta ocurra se le suele dar a la masa su forma definitiva: barra, trenza, etcétera. Hay panaderos que vuelven a dar un ligero amasado antes de proporcionar la forma definitiva,10 con el objetivo de elongar las burbujas de gas en la masa. Esta segunda fermentación es previa al horneado. A veces se introducen cortes con un cuchillo en la superficie de la masa para que queden formas agradables a la vista al mismo tiempo que sea más fácil partir tras el horneado.
Horneado[editar]

Horno de pan en Georgia.
En esta fase del proceso de elaboración del pan se suele emplear una fuente de calor que en la mayoría de los casos se trata de un horno, tradicionalmente solía ser de leña y que hoy en día son de electricidad, gasóil, o gas. Además del horneado también puede cocinarse en sartén, cazuela, parrilla, en cenizas, o directamente sobre el fuego. Los hornos antiguos eran de arcilla, piedra o ladrillo lo que permitía almacenar gran cantidad de energía calorífica, la forma de operar de estos hornos era muy sencilla se introducía madera que se ponía a arder y cuando las brasas quedaban (lo que permitía alcanzar una temperatura entre 350 °C y 450 °C) se retiraban y se introducían las masas moldeadas de pan. En las panaderías hodiernas se emplean hornos de gas o de electricidad que no sobrepasan los 250 °C.27
La cocción estándar se realiza a temperaturas comprendidas entre 190º y 250 °C, dependiendo del tamaño del pan y el tipo de horno. La duración del horneado puede oscilar entre los 12 y 16 minutos para los panes pequeños, alcanzando más de una hora para las piezas más grandes. La medida exacta se encuentra siempre en la experiencia de cada panadero. Los 10 primeros minutos de la cocción suelen resecar el ambiente del horno y es esta la razón por la que suele pulverizarse agua para prevenir este resecamiento inicial, algunos autores aconsejan introducir cubitos de hielo en las bandejas inferiores para que tomen su tiempo en derretirse y proporcionar vapor en el momento apropiado.27 28 Los hornos profesionales suelen tener la posibilidad de inyectar vapor en estas fases del horneado. Las diferencias de temperatura alcanzadas entre la miga interior y la corteza pueden alcanzar los 100 °C, por lo que conviene asegurarse que el interior alcanza esta temperatura para poder garantizar la erradicación de los posibles organismos patógenos que hayan quedado en la masa. Dependiendo del tipo de pan, de si se ha empleado levaduras o no, la masa puede sufrir un crecimiento dentro del horno.
Sea como sea el horneado, con su elevada temperatura "mata" las levaduras (si se hizo el pan con levadura), pero la 'aireación' que hinchó la masa tras la fermentación permanece. Desde el punto de vista reológico el horneado convierte una masa viscoelástica en un pan elástico. La masa es un gel que en el caso de los panes fermentados retiene dióxido de carbono en su interior, mientras que el pan horneado es una esponja que resulta permeable al gas. El proceso de transformación ocurre a ciertas temperaturas en el interior del horno: en torno a los 70 °C.29 Algunos panaderos han diseñado dispositivos para calentar la masa desde el interior y provocando un crecimiento homogéneo de la masa, estos panes no poseían corteza.30 En el horneado la temperatura crece progresivamente desde el exterior al interior. El color de la corteza oscuro se debe a la reacción de Maillard, a veces se modula este color con aditivos.
Los hornos ofrecen mucha variación en las diferentes culturas y puede decirse que su uso ha ido cambiando a lo largo de la historia de la elaboración del pan, hoy en día se pueden ver como los hornos diseñados hace muchos siglos atrás siguen funcionando, tal es así el tandoor indio, el taboon en forma de cono donde se elabora el pan taboon, etcétera. Es en el siglo XVIII cuando los hornos de panadería adquieren la tecnología que les hace más productivos con la posibilidad de poder controlar la humedad durante su horneado.31 Algunos panes se hornean dos veces en un periodo de 24 horas, en lo que se denomina biscuit (en el mundo anglosajón se denomina rusk o el Zwieback germano). El primer horneado se realiza normalmente, se corta el pan en rodajas y se deja reposar durante 18 horas para realizar un segundo horneado.
Enfriamiento[editar]
Tras la cocción en el horno sobreviene directamente el enfriamiento del pan debido a que se extrae de la fuente primaria de calor y poco a poco va enfriándose, debe decirse que en este proceso la capa de la corteza suele tener muy poca humedad y muy alta temperatura (la corteza tiene una humedad relativa del 15 % mientras que la miga un 40 %). Durante el enfriamiento la humedad interior de la miga sale al exterior a través de la corteza, la velocidad de pérdida de humedad dependerá en gran parte de la forma que posea el pan. El desecado interior va dando firmeza al almidón. No suele aconsejarse ingerir el pan cuando está recién salido del horno, el proceso de enfriamiento es igualmente un proceso de 'maduración', este proceso es más necesario incluso para aquellos panes que han necesitado de masas ácidas en su elaboración.
Almacenamiento[editar]
Artículo principal: Mejoradores para pan

Pan enmohecido debido a un mal almacenamiento. Es por esta razón por la que algunas masas se elaboran con fungicidas como el propionato cálcico.
El almacenamiento del pan es un tema de interés para la industria panadera debido a que se trata de un producto relativamente perecedero al que se le añaden a veces ciertas sustancias químicas para que posea una vida media superior. La aceptación cada vez menor de los consumidores a este tipo de actividades ha hecho que se abra en ciertas ocasiones una polémica. El almacenamiento evita los cambios físicos y químicos en el pan debido a las actividades microbianas principalmente.32 El resultado de esos cambios resulta en un cambio de las propiedades organolépticas (aroma y textura) que induce al consumidor a deducir que el 'pan no es fresco'. En algunas ocasiones se vende en los supermercados pan congelado, que evidentemente soporta mayor tiempo de vida que un pan envasado en bolsas de plástico. Hoy en día se sabe que la retrogradación de los almidones del pan a formas cristalinas es una de las principales causas de la dureza del pan.33 Otros factores que afectan al 'ratio' con el que se pone duro (firmeza) han sido investigados como puede ser la temperatura de almacenamiento,34 el contenido húmedo (denominado como actividad acuosa: aw) del pan,35 cambios en la estructura del gluten y la migración de la humedad durante su almacenamiento.36
Los procesos que causan que el pan se ponga rancio y duro empiezan durante la fase final de enfriado (es decir al salir del horno), comenzando incluso antes de que el almidón se haya solidificado. Durante el almacenamiento la miga del pan se va poniendo cada vez más dura, seca y crujiente. En este proceso la corteza se va haciendo más blanda y húmeda. Se atribuye por regla general este proceso a un resecamiento de la miga del pan. Se puede decir que el proceso de envejecimiento del pan se debe principalmente a la aparición de dos sub-procesos que aparecen de forma separada: la rigidez causada por la transferencia de humedad desde la miga a la corteza y la rigidez intrínseca de las paredes celulares asociada a la re-cristalización durante el almacenamiento.37 Durante el envejecimiento, el contenido húmedo de la corteza va aumentando como resultado de la migración hacia fuera desde su interior. Si se envuelve el pan en una lámina anti-humedad se acentúa la degradación de la corteza haciendo que la humedad de la miga no migre hacia afuera. Sin embargo se aconseja el embalado del pan debido a que reduce la pérdida global de humedad a la atmósfera.
Se ha comprobado que calentar el pan a temperaturas cercanas a los 60 °C hace que se pueda revertir el proceso de dureza en el pan.38 Esto ocurre debido a que las moléculas retenidas en la estructura de los glóbulos de almidón se liberan y además los geles de las amilosas vuelven a ser tiernas de nuevo. Esta es la razón por la que el pan duro a veces se pone blando en el horno a temperaturas ligeras (por debajo de los 60 °C). Se aconseja para evitar el endurecimiento del pan que si se va a consumir en uno o dos días se almacene en una panera o en una simple bolsa de papel ya que mantiene la humedad perfectamente. Si se va a consumir el pan en más de dos días se aconseja meterlo en una bolsa de plástico y congelarlo por completo. Almacenar en la nevera tan solo si se va a recalentar antes de ser ingerido (como por ejemplo las tostadas).
Comparado con otros alimentos, el pan contiene poca agua, y esto significa que puede ser contaminado por hongos si no es adecuadamente almacenado. Las especies de hongos azules que suelen atacar el pan son: Aspergillus y Penicillium así como las especies de Monilia sitophila. En los panes de origen industrial se suelen añadir tras el fermentado algunos antifúngicos con el objeto de evitar la degradación por hongos y poder almacenar durante más tiempo el pan. Uno de los más empleados es el propionato cálcico (E-282 de fórmula Ca(CH3CH2COO)2) al 0,2 %. Algunos de los microorganismos fúngicos más frecuentes en el pan durante esta fase son el Rhizopus nigricans, el Penicillium expansum, P. stoloniferum y el Aspergillus niger. Entre los microorganismos no-fúngicos contenidos en el pan se encuentra el Bacillus subtilis.
Usos del pan[editar]

Uno de los usos posibles del pan es la elaboración de bocadillos como el de la ilustración: sardinas en salazón con pepinillos.

El sándwich es uno de los usos más internacionales del pan. (Dagwood Sándwich).
El principal uso del pan es como alimentación humana y debe tenerse en cuenta que dentro de esta actividad existen innumerables posibilidades. Se emplea frecuentemente como acompañamiento de otros platos y es frecuente verlo en la parte central de la mesa, recogido a veces en una especie de cesta apropiada para su uso, generalmente cortado en rebanadas instantes antes de servirse. En algunas ocasiones el pan mismo es un aperitivo, tal y como es el grissini en la cocina italiana.
Uno de los usos más comunes del pan es servirse como puede ser en la elaboración de preparaciones en las que se incluyan otros alimentos entre dos rebanadas de pan. Así se consigue el popular sándwich, que se elabora con pan de molde incluyendo entre las rebanadas de pan diversos contenidos, generalmente cárnicos así como salsas (en forma de ensaladas). Este tipo de sándwiches puede ser servido frío o caliente (generalmente elaborado en una sandwichera). De la misma forma, en la cocina española se tienen variantes del emparedado en panes con cortezas más duras como es el bocadillo en sus diferentes variantes (ejemplos son el bocadillo de calamares y el pepito de ternera) y que han llegado en la actualidad a una forma refinada de alta cocina en lo que se denomina: bocadillo de autor, en la cocina italiana se tiene un equivalente en el panini. Convertido, en algunas ocasiones, en parte de ciertas comidas rápidas se puede encontrar en las hamburguesas, los perritos calientes, los döner kebab, o los shawarma, entre otros. En otros casos aparece en diferentes pequeños almuerzos como pueda ser el ploughman's lunch inglés, en las tapas españolas, en los meze turcos, o el internacional coffee break. A veces se usa como untado como es el caso de las fondues (Mont-d'Or chaud), o en la ingesta de algunas sopas o salsas (como es el caso de la salsa de pan).
Otras variantes poseen contenidos abiertos como la pizza que han tenido en la cocina italiana un origen en un pan plano denominado focaccia (pizza blanca). Otro ejemplo es el popular pan con tomate (pa amb tomàquet en catalán), el cachopo de la cocina asturiana, el Strammer Max alemán, etcétera. Dentro de la categoría de panes abiertos en rebanadas se tienen los untados que se esparce un alimento líquido (o semilíquido) sobre la superficie; en este caso se tiene el sardina pâté, los gravy, etc. Es muy frecuente encontrar el pan en los desayunos en forma de rebanadas tostadas al fuego (o en una tostadora) a las que se añade unos pedazos de mermelada y mantequilla fundida, de forma similar existe el mollete de desayuno andaluz, el Brötchen del cocina alemana.
El pan ya seco suele aprovecharse en cocina rallándolo, consiguiendo de esta forma pan rallado, que participa posteriormente rebozado en innumerables preparaciones fritas como pueden ser los alimentos empanados. Algunos de ellos son: las croquetas, el pollo frito, las milanesas (filetes de carne empanadas). El pan rallado fundamentalmente proporciona una textura crujiente. El pan rallado puede emplearse igualmente en el espesamiento de salsas de carne como pueden ser los gravys, el xató, así como en el de sopas frías como puede ser el salmorejo o el gazpacho, el gruel como la sopas de ajo. En la cocina alemana y austriaca se puede encontrar la miga del pan en forma de masas cocinadas que acompañan a ciertos guisos y que se denominan Klöße. En forma de cubos se puede freír en aceite y formar parte de los croûtons que se ubican en ensaladas como la César, o los famosos picatostes cubiertos de azúcar. En algunas ocasiones participa en ensaladas como el caso del fattoush en los países árabes (se trata de una variante 'panificada' del tabbouleh). Se encuentran preparaciones de pan que forman parte de los postres como pueden ser los puddings (uno de los más conocidos es el pudding de pan en las culturas anglosajonas).
El pan duro forma parte de los ingredientes de algunos platos de origen humilde como puede ser las sopas de ajo y las torrijas de la cocina de Semana Santa. Otro ejemplo en la cocina española que está relacionado con la matanza son las migas, así como en la elaboración de algunas morcillas. Algunos panes se cocinan con ingredientes dentro; es el caso del matnakash armenio (Armenio: Մատնաքաշ), el bollo preñao de Asturias (España), empanadas, etcétera. En algunas ocasiones el pan participa como ingrediente principal en un plato como es el caso del panko de la cocina japonesa. En algunas ocasiones el pan ocupa un lugar en las tradiciones familiares de una comunidad como es el caso de la cena de acción de gracias donde se suelen elaborar panes especiales con objeto de la ocasión.
A veces el pan se emplea en numerosos remedios caseros como un elemento quita-olores al cocinar ciertas verduras como las coles; para remover humedad excesiva en la cocción de alimentos como el arroz o quitar la grasa superficial de caldos de carne. A veces se emplea en el paladar para aplacar la sensación pungente de los alimentos picantes ingeridos y con una función similar entre dos catas de vino para no confundir aromas. También se usa a veces para retirar de forma segura los pequeños trozos de vidrio del suelo que quedan tras haberse caído un recipiente y romperse. En muchos casos se emplea como alimento de animales domésticos así como de pájaros que viven en núcleos urbanos (un ejemplo son las palomas). En algunos casos los alimentos se emplean como substitutivo del pan: es así el español pan de Cádiz, el pan de higos, el colombiano pan de azúcar.
También se usa el pan en esculturas artísticas.39 En ese caso suele llamarse "masa muerta".40
Sabor del pan[editar]
En los alimentos el sabor procede de un conjunto de reacciones químicas que pueden dividirse fundamentalmente en dos tipos: procesos enzimáticos y no enzimáticos (como puede ser la reacción de Maillard). El sabor del pan procede de multitud de elementos intervinientes de forma conjunta en la masa, por ejemplo de la harina. El gluten no proporciona ni aroma ni sabor en sí mismo, mientras que el almidón junto con los lípidos proporcionan el carácter de la harina misma.10 Los almidones y lípidos en combinación con los enzimas propios de la harina y las bacterias (así como las levaduras) son las responsables del aroma del pan. En algunos casos los propios enzimas existentes en la harina pueden generar el olor característico del pan.41 En algunos casos el pan elaborado con masas madre poseen un sabor más apreciado que aquellos que se hacen con levaduras industriales y esta es una de las razones por las que a veces se indica en los panes de algunas panaderías, la procedencia de este tipo de pre-fermentación.42 43
Algunos autores han detectado que el sabor del pan procede de ácidos orgánicos volátiles producidos durante la fermentación.16 Esta es la razón por la cual la fermentación adecuada es la que proporciona un sabor característico al pan.
Tipos de pan[editar]
Artículo principal: Anexo:Tipos de pan

El cracker es una modalidad de pan ácimo plano inventado para que permaneciese comestible durante largos períodos. Un caso especial es el hardtack, un tipo de craker estadounidense que se conserva en museos desde comienzos del siglo XIX.44
A pesar de lo reducido de los ingredientes la variedad de panes en la culinaria mundial es muy grande debido en gran parte a las variantes en los procesos de su elaboración, a las tradiciones culinarias, a la disponibilidad de los diferentes tipos cereales, a las formas impresas a sus masas, a la ausencia de uno de sus ingredientes (como puede ser de la levadura), a las decoraciones exteriores, etcétera.
Panes sin levadura[editar]
Este tipo de panes, denominados a veces también como panes cenceños (o ácimo), se elaboran con el simple concurso de la harina y el agua, es uno de los panes más antiguos que puede suponerse debido a la simplicidad de los ingredientes. Un ejemplo es la ley chametz de la culinaria judía en la que se evita comer panes fermentados con levaduras en especial en la Pascua judía 12:15 Éxodo, de esta forma se tienen panes como el matzoh, o los panes elaborados según el Pas Yisroel. En el norte de África, en la India y parte de Asia se elaboran panes de esta clase con harina de trigo así como de burghul, se tienen las trahanas de la cocina sefardí.12 Las tortillas de trigo de la cocina mexicana así como del sur de Estados Unidos. Las crêpes elaboradas con masas líquidas sin levadura que se hacen en la sartén a muy alta temperatura. La mayoría de los panes planos se elaboran con masas sin levadura.
Panes de masa ácida[editar]
Este tipo de panes se caracterizan por elaborarse con una masa ácida, la acidez proviene de los cultivos bacterianos realizados en la masa madre que le proporciona un sabor característico final al pan. El sabor ácido proviene del ácido láctico o acético generado durante la fermentación de la masa madre. Las levaduras Candida milleri o Saccharomyces exiguus se cultivan en la harina haciendo una especie de simbiosis con la bacteria Lactobacillus sanfranciscensis. La Lactobacillus sanfranciscensis se nombró así por ser un descubrimiento realizado en los pre-fermentados elaborados en las panaderías de San Francisco. Estos panes poseen un color en la corteza muy característico, un marrón muy pronunciado.
Panes levados[editar]

Pan de 2 y 3 orejas. Colmenar de Oreja. España.
Por regla general cuando se emplean levaduras para 'levar' la masa se obtienen unos resultados específicos de 'hinchado' del pan, pero en algunas culturas no se emplean levaduras y surgen así panes como los de soda muy populares en la culinaria irlandesa o los panes que emplean bacterias de la especie Clostridium perfringens o Bacillus cereus, denominados pan de crecimiento salino (Pan Salt-Rising). Estas bacterias son las que generan la gastroenteritis pero tras el proceso de horneado mueren debido a que son sometidas a temperaturas por encima de los 200 °C. Hoy en día se suelen vender masas panaderas congeladas que se introducen directamente en el horno, estas masas suelen llevas levaduras químicas como son el pirofosfato ácido de sodio (Na2H2P2O7) y el bicarbonato sódico, a esta categoría pertenecen los panes rápidos (quick breads en inglés) como pueden ser el pan de banana, los elaborados con crémor tártaro (bitartrato de potasio - KC4H5O6), el cornbread, scones, o el serbio Česnica, etc.
Panes planos[editar]
Artículo principal: Pan plano

Mujer joven en la India elaborando chapatis en una placa caliente al fuego.
Es muy posible que los panes planos fueran las formas más primigenias de pan y quizás se deba a la facilidad de preparación.3 Hoy en día es un pan muy empleado en diferentes culturas de la tierra, es por ejemplo muy empleado en las cocinas árabes, así como de Sur de Asia (India y Pakistán son ejemplos de ello), las tortillas americanas. Una de las características más relevantes de este tipo de panes es la rapidez de preparación (en algunos casos se trata tan solo de unos minutos), además permite que no exista la necesidad de un gran operativo, como fuente de calor se puede emplear una sartén (o una simple chapa metálica caliente), una piedra, o también en las paredes de un horno (taboon). Los panes planos pueden encontrarse en las cocinas occidentales como en la noruega en los flatbrød o los lefse, y en la turca en los pide y yufka.
Se puede decir que este tipo de panes se 'hincha' sin necesidad de fermentación (muchos de ellos se hacen sin el empleo de levadura), debido a que durante su cocción se forman pequeñas burbujas de vapor entre la masa. En algunos casos la textura es lo suficientemente robusta como para poder incluir otro alimento, este es el caso del pan de pita que permite incluir carne picada en su interior.
Panes sin gluten[editar]
Artículo principal: Pan sin gluten
Las personas que padecen trastornos relacionados con el gluten, tales como la enfermedad celíaca o la sensibilidad al gluten no celíaca, son intolerantes al gluten.45 Por esta razón, tienen que excluir de forma estricta de la dieta el trigo, la cebada, el centeno,46 47 la avena,47 y todas sus especies e híbridos (tales como la espelta, la escanda, el kamut y el triticale).46 47 48 49 La toxicidad de la avena depende del cultivar empleado;50 asimismo, frecuentemente presenta contaminación con trigo u otros cereales con gluten.47
Con el objetivo de cubrir las necesidades de estas personas, actualmente existen panes sin gluten comercializados que se elaboran con harinas alternativas libres de gluten, tales como la harina de arroz o la harina de maíz.51 Para suplir las propiedades del gluten, algunos preparados panificables incluyen goma xantana, que proporciona mayor elasticidad al pan, y emulsionantes, que permiten retener las emisiones de dióxido de carbono de la fermentación. Otras sustancias utilizadas para proporcionar elasticidad al pan son el agar-agar (extraído de ciertas algas) o la goma garrofín (extraída de las semillas del algarrobo).52 53
Panes al vapor/fritos[editar]

Taco de pan frito típico de la cocina de los indios nativos de Norteamérica.
En la cocina asiática se suele encontrar este método de aplicar calor a la masa debido, bien al uso de vapor caliente, bien a una fritura en aceite vegetal a muy alta temperatura. Un ejemplo es el baozi. Esta forma de calentar la masa de harina da lugar a un tipo de panes específicos que poseen una corteza con características peculiares. La cocina inuit posee un pan frito muy popular denominado bannock. Un caso particular de la cocina occidental de masa frita es el churro, así como las sopaipillas de Chile y Argentina. Los panes al vapor son muy típicos en la cocina china (baozi), en la cocina británica es muy popular el pan al vapor denominado popover (elaborado de forma muy similar al Yorkshire pudding), el mongol buuz, el youtiao (que posee algunas similitudes al churro), el pan de gamba chino. En Europa se tiene el Dampfnudel alemán que es un pan cocido relleno de carne.
Pan rápido[editar]
El pan rápido es un tipo de pan que se hace crecer con agente leudante en lugar de con levadura.
La variedad de pan rápido incluye bizcochos y galletas, así como pan de banana, pan de cerveza, cornbread, madalenas, tortitas, scones y pan de soda.54 Según la mezcla de agentes leudantes se consiguen panes de textura más o menos turgente o blanda. El llamado "Quick bread" se originó muy posiblemente en Estados Unidos a finales del siglo XVIII. Antes de su creación, los productos horneados se hacían crecer con levadura o una mezcla de masa con huevo.55 Durante la guerra civil americana (1861-1865), la demanda de comida era muy elevada, razón por la cual se hacía crecer el pan con "baking soda" en lugar de levadura.56 57 58 59
Pan y salud[editar]
El pan se ha considerado desde muy antiguo como uno de los alimentos por excelencia. Hubo autores que experimentaron científicamente diciendo que era un alimento, que por sí solo, poseía todos los requerimientos básicos de una alimentación completa (bajo ciertas actividades).60 El pan es un alimento que contiene un 40 % de agua (hay que saber que la pasta cocida llega a un 60 %).61 Es un buen cálculo pensar que cien gramos de pan blanco tiene un aporte calórico aproximado de 250 calorías, su adecuación a la alimentación humana hace que sea incluido en los kits de supervivencia.
Enfermedades asociadas al consumo de pan[editar]
A pesar de ser considerado un alimento básico muy antiguo, un porcentaje creciente de población en todo el mundo sufre de algún tipo de trastorno relacionado con el gluten, que incluyen la enfermedad celíaca, la sensibilidad al gluten no celíaca, la dermatitis herpetiforme, la ataxia por gluten y la alergia al trigo,62 63 cuyo tratamiento consiste en una dieta libre de gluten estricta.64 65 66 La difusión mundial de la dieta mediterránea es uno de los principales factores que están contribuyendo al creciente aumento de casos de estos trastornos, debido al elevado consumo de alimentos que contienen gluten.67 Por este motivo, en recientes años se han lanzado al mercado los panes libres de gluten.51 Por otra parte existen casos en los que se han detectado alergias a la α-amilasa,68 pudiendo llegar a ser la causa de algunos angioedemas.69
Las dietas hipoglucémicas evitan el consumo de pan (sobre todo el pan elaborado con harina blanca refinada, debido a que posee un alto valor glucémico).70 La adición de leche a algunas masas de pan hace que las personas con intolerancia a la lactosa puedan tener problemas.
De los panes el más evitado por los nutricionistas es el pan de harina blanca refinada, argumentan que las harinas refinadas poseen tal grado de elaboración que gran parte de las propiedades de fibra dietética y de minerales se han perdido en el proceso de refinamiento. Esta es en cierta medida una de las razones por las que cada vez más se encuentran panes de harinas no-refinadas en las panaderías. El contenido de ácido fítico en las harinas hace que se disminuya la biodisponibilidad de algunos minerales como el calcio, el magnesio, el zinc y el fósforo,71 aunque los procesos de elaboración del pan disminuyen en gran medida la cantidad de ácido fítico en la masa.72
Los ingredientes empleados en los mejoradores para pan causan cierta alarma entre sectores de la sociedad preocupados por la salud de los alimentos. A veces la calidad de los ingredientes añadidos al pan son causa de preocupaciones en el consumidor, como es el caso de enzimas aplicados a la elaboración del pan que pueden provocar reacciones de sensibilidad a los mismos.22 En algunos casos los panes no completamente horneados pueden producir en algunas personas flatulencias. Entre los mejoradores del pan industrial se encuentra el bromato potásico empleado para endurecer las masas, prohibido por algunas agencias alimentaria por detectar posibles efectos cancerígenos.73
Nutrición[editar]

Pan asturiano elaborado con trigo espelta.
El pan aporta en una cantidad considerable hidratos de carbono de cadena compleja. Algunas proteínas (generalmente de bajo valor biológico),60 pudiendo llegar a contenidos de 9 g/100 g de pan.61 Su contenido en aminoácidos no incluye todos los aminoácidos esenciales, sino que presenta niveles bajos del aminoácido esencial, lisina (se suele compensar con la ingesta de otros alimentos como puede ser legumbres). Posee por regla general pocos contenidos grasos, casi siempre ácido oléico y linoléico. Entre los micronutrientes que

Ha recibido 994 puntos

Vótalo:

PRESERVATIVOS (SIGLO XVI)

20. PRESERVATIVOS (SIGLO XVI)

https://www.youtube.com/watch?v=Uo4g7NCuSeE

Un preservativo, profiláctico o condón es un dispositivo de barrera con forma de funda que puede ser utilizado durante una relación sexual para reducir la probabilidad de embarazo y la transmisión de infecciones de transmisión sexual (ITS) como el sida/VIH. Se enrolla en un pene erecto antes del... Ver mas
Un preservativo, profiláctico o condón es un dispositivo de barrera con forma de funda que puede ser utilizado durante una relación sexual para reducir la probabilidad de embarazo y la transmisión de infecciones de transmisión sexual (ITS) como el sida/VIH. Se enrolla en un pene erecto antes del coito y bloquea físicamente que el semen eyaculado se introduzca en el cuerpo de la pareja sexual. Los preservativos también se utilizan durante la felación y para la recolección de semen para uso en el tratamiento de infertilidad. En la actualidad, generalmente son hechos de látex, pero algunos están hechos de otros materiales como poliuretano, polisopreno o intestino de cordero. También existe un preservativo femenino, hecho a menudo de nitrilo.2
Como método anticonceptivo, los preservativos masculinos tienen las ventajas de ser económicos, fáciles de utilizar, tener pocos efectos adversos y ofrecer protección contra ITS. Con una técnica de utilización y conocimiento apropiados—y uso en cada coito—, las mujeres cuyas parejas utilizan preservativos masculinos experimentan un índice de embarazo al año de 2 % con uso perfecto y un 18 % con uso típico.3 Los preservativos han sido utilizados por al menos 400 años. Desde el siglo XIX, han sido uno de los métodos anticonceptivos más populares en el mundo. A pesar de que son ampliamente aceptados, han generado alguna controversia, principalmente sobre qué papel deberían tener en clases de educación sexual.
Índice [ocultar]
1 Usos médicos
1.1 Control de natalidad
1.2 Infecciones de transmisión sexual
2 Causas de fracaso
3 Efectos adversos
4 Uso
4.1 Industria de película del adulto
4.2 Educación sexual
4.3 Tratamiento de infertilidad
4.4 Otros usos
5 Tipos
5.1 Preservativos femeninos
5.2 Materiales
5.2.1 Látex natural
5.2.2 Sintético
5.2.3 Intestino de oveja
5.3 Espermicida
5.4 Textura
5.5 Preservativos adolescentes
5.6 Otros
6 Prevalencia
7 Referencias
8 Lectura adicional
9 Enlaces externos
Usos médicos[editar]
Control de natalidad[editar]
La efectividad de los preservativos, como la mayoría de las formas de anticoncepción, puede ser evaluada de dos maneras. Los índices de efectividad del método o de uso perfecto solo incluyen a quienes utilizan preservativos correctamente y sistemáticamente. Los índices de efectividad con uso real o típicos son de todos los usuarios de preservativo, incluidos quienes los usan incorrectamente o no los utilizan en cada coito. Generalmente los índices se expresan para el primer año de uso.4 Típicamente se usa el índice Pearl para calcular los índices de efectividad, pero algunos estudios usan tablas de vida.5 :141
El índice de embarazo de uso típico entre usuarios de preservativo varía dependiendo de la población estudiada y varía entre 10 y 18 % por año.6 El índice de uso perfecto es de 2 % por año.4 Los preservativos pueden ser combinados con otras formas de control de la natalidad (como espermicidas) para una mayor protección.7
Infecciones de transmisión sexual[editar]

Un preservativo gigante en el Obelisco de Buenos Aires (Argentina), parte de una campaña de concienciación en el Día Mundial de la Lucha contra el Sida (2005).
Los preservativos son ampliamente recomendados para la prevención de infecciones de transmisión sexual (ITS). Han demostrado ser eficaces en reducir los índices de infección tanto en varones como mujeres. Si bien no es perfecto, el preservativo es eficaz en reducir la transmisión de organismos que causan el sida, el herpes genital, el cáncer cervical, las verrugas genitales, la sífilis, la clamidiosis, la gonorrea y otras enfermedades.8 A menudo se recomienda como complemento a métodos de control de la natalidad más efectivos (como el DIU) en situaciones en que también se desea protección contra las ITS.9
Según un informe de 2000 por los Institutos Nacionales de Salud (NIH), el uso sistemático de preservativos de látex reduce el riesgo relativo de transmisión del VIH/sida en aproximadamente 85 % frente cuando se está desprotegido, bajando el índice de seroconversion (índice de infección) de 6,7 por 100 persona-años a 0,9.10 El análisis publicado en 2007 de la rama médica de la Universidad de Texas11 y la Organización Mundial de la Salud12 hallaron reducciones de riesgo similares de 80–95 %.
La revisión de 2000 del NIH concluyó que reduce significativamente el riesgo de gonorrea para los varones.10 Un estudio de 2006 señala que el uso apropiado del preservativo disminuye el riesgo de transmisión del virus del papiloma humano (VPH) a mujer es en aproximadamente un 70 %.13 Otro estudio en el mismo año descubrió que el uso consistente de preservativo era eficaz en reducir la transmisión del virus del herpes simple tipo 2 también conocido como herpes genital, tanto en hombres como mujeres.14
A pesar de que es eficaz en limitar la exposición, cierta transmisión de enfermedades puede ocurrir incluso con su uso. Las áreas contagiosas de los genitales, especialmente en presencia de síntomas, puede no cubrirse por el preservativo, y como resultado, algunas enfermedades como el VPH y el herpes pueden transmitirse por contacto directo.15 No obstante, el princiál problema de efectividad para impedir las ITS es su uso inconsistente.16
También pueden ser útiles en el tratamiento de potenciales lesiones cervicales precancerosas. La exposición virus del papiloma humano, incluso en individuos ya infectados, parece aumentar el riesgo de transformaciones precancerosas. Su uso promueve la regresión de estos cambios.17 Además, investigadores británicos sugieren que las prostaglandinas del semen puede agravar un cáncer cervical existente y que el uso de preservativo durante el sexo puede impedir la exposición a estas sustancias tipo hormona.18
Causas de fracaso[editar]
Los preservativos pueden resbalarse del pene después de la eyaculación, romperse debido a una aplicación inadecuada o daño físico (como rasgaduras causadas al abrir el paquete), o rotura o resbalón debido a degradación del látex (típicamente por uso luego de la fecha de expiración, almacenamiento incorrecto o exposición a aceites).19 El índice de rotura es de entre 0,4 % y 2,3 %, mientras que el índice de resbalón está entre 0,6 y 1,3 %.10 Incluso si no se observa ninguna rotura o resbalón, el 1–3 % de las mujeres darán positivo para residuo de semen después del coito con preservativo.20 21
Se cree a menudo que el "doble preservativo", el uso de dos preservativos a la vez, causa un índice más alto de fracaso debido a la fricción la de goma sobre la goma.22 23 Esta afirmación no está apoyada por la investigación. Los estudios limitados que se han hecho al respecto respaldan que el doble preservativo probablemente no es nocivo y posiblemente es beneficioso.24 25
Modos diferentes de fracaso resultan en niveles diferentes de exposición de semen. Si el fracaso ocurre durante la aplicación, puede ser desecharse el preservativo dañado y aplicarse un preservativo nuevo antes del inicio del coito, tales fracasos generalmente no representan ningún riesgo.26 Un estudio halló que la exposición de semen desde un preservativo roto era alrededor de la mitad de la del coito desprotegido; mientras que la exposición de semen de un preservativo resbalado era aproximadamente un quinto de la del sexo desprotegido.27
Los preservativos estándares se ajustarán a casi cualquier pene, con grados variables de comodidad o riesgo de resbalón. Muchos fabricantes ofrecen tamaños "ajustados" o "mágnum". Algunos también ofrecen preservativos personalizados hechos a medida, asegurando que son más fiables y ofrecen una sensación/comodidad mejorada.28 29 30 Algunos estudios han asociado penes grandes y preservativos pequeños con índices de rotura aumentado y de resbalón disminuido (y viceversa), pero otros estudios no han sido concluyentes.
Se recomendienda a los fabricantes evitar preservativos muy gruesos o muy delgados, porque ambos se consideran menos eficaces.31 Algunos autores animan a los usuarios a escoger preservativos más delgados "para mayor durabilidad, sensación y comodidad", pero otros advierten que "cuanto más delgado el preservativo, menos fuerza se requiere para romperlo".32 33
Es significativamente menos probable que los usuarios de preservativo experimentados tengan un resbalón o rotura comparado a novatos, a pesar de que quiénes experimentan una rotura o resbalón tienen más posibilidades de sufrir un segundo fracaso.34 Un artículo en Population Reports sugiere que la educación sobre el uso del preservativo reduce los comportamientos que aumentan el riesgo de rotura y resbalón.35 Una publicación en Family Health International también ofrece la opinión que la educación puede reducir estos riesgos, pero enfatiza que se necesita más investigación para determinar todas las causas de rotura y resbalón.36
Entre quienes eligen a los preservativos como su forma de control de natalidad, el embarazo puede ocurrir cuando el usuario tiene sexo sin un preservativo. La persona puede haberse quedado sin preservativos, o estar viajando y no tener un preservativo a mano, o sencillamente desagradarle la sensación de los preservativos y decidir "correr el riesgo". Este tipo de comportamiento es la principal causa de fracaso del uso típico (en oposición al fracaso del método o de uso perfecto).37
Otra causa posible de fracaso es el sabotaje. Un motivo es tener un niño contra los deseos o el consentimiento de una pareja.38 Algunos trabajadores sexuales nigerianos informaron que clientes sabotean preservativos en represalia por ser obligados a usarlo.39 Se piensa que usar una aguja fina para hacer varios agujeros de alfiler en la punta del preservativo impacta significativamente su efectividad.5 :306–30721 Casos de tal sabotaje han ocurrido.40
Efectos adversos[editar]
El uso de preservativos de látex por personas con alergia al látex puede causar síntomas alérgicos, como irritación de piel.41 En personas con graves alergias al látex, utilizar un preservativo de látex puede ser potencialmente fatal.42 Uso repetido de preservativos de látex también puede causar el desarrollo de alergia al látex en algunas personas.43
Uso[editar]

Ilustraciones que muestran cómo ponerse un preservativo.
Los preservativos masculinos normalmente se empacan enrollados dentro de un envoltorio de aluminio o plástico y están diseñados para ser aplicados en la punta del pene y luego desenrollarse sobre el pene erecto. Es importante que se deje cierto espacio en la punta del preservativo de modo que haya un sitio para recoger el semen; de otro modo este puede ser expulsado fuera de la base del dispositivo. Después de su uso, se recomienda envolverlo en un pañuelo o atar un nudo, antes de desecharlo en un basurero.44 Los preservativos se usan para reducir el riesgo de embarazo durante el sexo y para reducir la probabilidad de contraer ITS. También se utilizan en la felación para prevenir ITS.
Algunas parejas consideran que ponerse un preservativo interrumpe el sexo, otras en cambio incorporan la aplicación de preservativo como parte de la estimulación. Algunos hombres y mujeres encuentran que la barrera física de un preservativo atenúa la sensación. Las ventajas de una sensación atenuada puede incluir la erección prolongada y una eyaculación retrasada; las desventajas podrían incluir la alguna pérdida de excitación sexual.8 Sus defensores también señalan sus ventajas de ser económicos, fáciles de utilizar y con pocos efectos laterales.8 45
Industria de película del adulto[editar]
En 2012 activistas reunieron 372 000 firmas electorales a través de una iniciativa ciudadana en el Condado de Los Ángeles para someter la Medida B a votación en dicho año. Como resultado, la Medida B, una ley que exige el uso de preservativos en la producción de películas pornográficas, fue aprobada.46 Este requisito ha recibido mucha crítica y según algunos es contraproducente, meramente forzando a las compañías a trasladarse a otros sitios sin esta exigencia.47 Los productores aseguran que el uso del preservativo reduce las ventas.48
Educación sexual[editar]
A menudo se utilizan en programas de educación sexual, porque son capaces de reducir las posibilidades de embarazo y la diseminación de algunas ITS cuando se utilizan correctamente. Un RECIENTE comunicado de prensa de la Asociación Psicológica Estadounidense (APA) apoyó la inclusión de información sobre preservativos en la educación sexual y dijo que "los programas de educación de sexualidad integrales [...] discuten el uso apropiado de preservativos" y "promueven el uso de preservativo en quienes son sexualmente activos."49
En los Estados Unidos, algunas organizaciones religiosas se oponen a la enseñanza sobre preservativos en las escuelas públicas.50 Planned Parenthood, que aboga por la planeación familiar y la educación sexual, argumenta que ningún estudio ha demostrado que los programas de solo abstinencia resultan en el sexo retardado y cita encuestas que indican que un 76 % de los padres estadounidenses quieren que sus niños reciban una educación sexual integral que incluya el uso de preservativo.
Tratamiento de infertilidad[editar]
Procedimientos comunes en el tratamiento de infertilidad como análisis de semen y inseminación intrauterina (IIU) requieren colección de muestras de semen. Estos son comúnmente obtenidos a través de la masturbación, pero una alternativa es el uso de un preservativo de colección especial para recoger semen durante el coito.
Los preservativos de colección están hechos de silicona o poliuretano, ya que el látex es algo nocivo para los espermatozoides. Muchos hombres los prefieren a la masturbación y algunas religiones la prohíben enteramente. Además, comparado con las muestras obtenidas por masturbación, los preservativos de colección tienen un mayor conteo de espermatozoides totales, motilidad y porcentaje de espermatezoides con morfología normal. Por esta razón, se piensa que dan resultados más precisos en el análisis seminal y mejoran las posibilidades del embarazo en procedimientos como la inseminación intrauterina o intracervical.51 Seguidores de religiones que prohíben la anticoncepción, como el catolicismo, pueden utilizar preservativos de colección pinchados con agujeros.5 :306–307
En los tratamientos de fertilidad, un preservativo de colección puede usarse para recoger semen durante el coito cuando el semen es proporcionado por la pareja de la mujer. Donantes de esperma privados también pueden utilizarlo para obtener muestras a través de la masturbación o sexo y transferir el semen del preservativo a un contenedor especialmente diseñado. El esperma es transportado en tales contenedores, en el caso de un donante, a una mujer receptora de la inseminación; y en el caso de la pareja de una mujer, a una clínica de fertilidad para su procesamiento y uso. Aun así, el transporte puede reducir la fecundidad del esperma. También pueden utilizarse en el mismo banco de esperma o clínica de fertilidad.
A veces a las parejas infértiles se les prescribe la terapia de preservativo cuando la mujer tiene niveles altos de anticuerpos antiesperma. La teoría es que impidiendo la exposición al semen de su pareja bajará su nivel de anticuerpos antiesperma y así aumentará sus posibilidades de embarazo cuando la terapia se interrumpa. Sin embargo, la terapia de preservativo no ha demostrado aumentar los índices de embarazo subsiguientes. 52
Otros usos[editar]
Los preservativos sobresalen como contenedores y barreras multiusos porque son impermeables, elásticos, duraderos y (para usos militares y de espionaje) no despertarán sospechas si son encontrados.
Su utilización militar en curso empezó durante la Segunda Guerra mundial e incluye cubrir la boca de los cañones de rifle para impedir su bloqueo,53 la permeabilización del ensamblaje54 y el almacenamiento de materiales corrosivos y almacenamiento de garrotes por organizaciones paramilitares.55
También se han usado en el contrabando de alcohol, cocaína, heroína y otras drogas a través de fronteras y a prisiones mediante su llenado con drogas, realización de un nudo y luego su ingestición o inserción rectal. Estos métodos son muy peligrosos y potencialmente letales; si el preservativo se rompe, la droga en su interior se absorbe al torrente sanguíneo y puede causar una sobredosis.
Médicamente, pueden usarse para cubrir una sonda endovaginal de ultrasonido, o en descompresiones por aguja torácica en terreno pueden usarse para crear una válvula unidireccional.56 57
Los preservativos también se han utilizado para proteger muestras científicas del entorno58 y para sellar los micrófonos en la grabación bajo el agua.59
Tipos[editar]
La mayoría de los preservativos tienen una punta de depósito, lo que hace más fácil de acomodar la eyaculación. Vienen en diferentes medidas, desde holgados a ajustados y también en una variedad de superficies para estimular a la pareja del usuario. Los preservativos normalmente son fabricados con un recubrimiento lubricante para facilitar la penetración, mientras que los preservativos de sabores son principalmente utilizados para sexo oral. Como se mencionó anteriormente, la mayoría de los preservativos están hechos de látex, pero también existen de poliuretano y piel de cordero.
Preservativos femeninos[editar]

Un preservativo femenino.
Los preservativos masculinos tienen un anillo estrecho para formar un sello alrededor del pene mientras que los femeninos típicamente tienen un anillo rígido grande para evitar que resbalan en el orificio corporal. Female Health Company produjo un preservativo femenino que era originalmente hecho de poliuretano, pero las versiones más nuevas están hechas de nitrilo. Medtech Products produce uno de látex.60
Materiales[editar]
Látex natural[editar]

Un preservativo masculino de látex desenrollado.
El látex tiene propiedades elásticas excepcionales: su fuerza de tensión supera los 30 MPa y preservativos de este material pueden extenderse un 800 % en exceso antes de romperse.61 En 1990 la ISO fijó estándares para la producción de preservativos (ISO 4074, preservativos de caucho de látex natural), y la Unión Europea hizo lo propio con su estándar CEN (Directiva 93/42/EEC sobre dispositivos médicos). Se examina que cada preservativo de látex no tenga agujeros con una corriente eléctrica. Si el preservativo aprueba, se enrolla y envasa. Además, una porción de cada lote se somete a pruebas de filtración de agua y rotura por presión aérea.16
Si bien las ventajas de látex lo han hecho el material más popular, tiene algunos inconvenientes. Los preservativos de látex se dañan cuando se usan junto a sustancias aceitosas como lubricantes, tales como jalea de petróleo, aceite de cocina, aceite de bebé, aceite mineral, lociones de piel, protectores solares, cremas frías, mantequilla o margarina.62 El contacto con aceite hace a los preservativos de látex más propensos a rompererse o resbalarse debido a la pérdida de elasticidad causada por los aceites.36 Además, la alergia al látex impide su uso y es una de las razones principales para el uso de otros materiales. En mayo de 2009 la Food and Drug Administration de EE. UU. aprobó la producción de preservativos hechos de Vytex, látex que ha sido tratado para remocer el 90 % de las proteínas responsables de las reacciones alérgicas.63 64 También está disponible un preservativo libre de alergénos hecho de látex sintético (poliisopreno).65
Sintético[editar]
El segundo material más popular es el poliuretano. Los preservativos también pueden ser hechos de otros materiales sintéticos, como la resina EN-10 y más recientemente poliisopreno.65
Los preservativos de poliuretano tienden a tener el mismo ancho y grosor que los de látex y la mayoría de tiene entre 0,04 y 0,07 mm de grosor.66
El poliuretano tiene varias ventajas sobre el látex: conduce mejor el calor, no es tan sensible a la temperatura y la luz ultravioleta (y por ende tiene requisitos de almacenamiento menos rígidos y un tiempo de caducidad más largo), puede ser utilizado con lubricantes aceitosos, es menos alergénico y es inodoro.67 La FDA los ha aprobado para la venta en los Estados Unidos como un método eficaz de anticoncepción y prevención del VIH y bajo condiciones de laboratorio han demostrado ser tan eficaces que los de látex para estos propósitos.68
Sin embargo, los preservativos de poliuretano son menos elásticos que los de látex y puede ser más propensos a resbalarse, romperse,67 69 perder su forma o plegarse70 y es más caro.
El poliisopreno es una versión sintética del látex de caucho natural. Aunque es significativamente más caro,71 tiene las ventajas del látex (como ser más blando y más elástico que el poliuretano) sin la proteína que es responsable de las alergias al látex.71 Al igual que los preservativos de poliuretano, se dice que los de poliisopreno hacen un mejor trabajo en transmitir el calor corporal. A diferencia de los primeros, no pueden ser utilizados con lubricantes aceitosos.70
Intestino de oveja[editar]
También están a la venta preservativos hechos de intestinos de oveja ("lambskin"). A pesar de que generalmente son eficaces como anticonceptivos al bloquear el esperma, se presume que probablemente son menos eficaces que el látex en impedir la transmisión de agentes que causan ITS, debido a los poros en el material.72 Esto se basa en la idea de que los intestinos, por su naturaleza, son membranas porosas y permeables y mientras que el esperma es demasiado grande para pasar a través de los poros, los virus—como el VIH y los agentes infecciosos del herpes y las verrugas genitales—son bastante pequeños para pasar a través de ellos.70 No obstante, a la fecha no hay ninguna información clínica que confirme o niegue esta teoría. Algunos creen que estos preservativos proporcionan una sensación más "natural" y carecen de los alergenos inherentes al látex, pero debido a su menor protección contra las infecciones, se recomienda otros materiales hipoalergénicos como el poliuretano están recomendados para los usuarios alérgicos al látex o a sus parejas. Los preservativos de intestino de oveja también son significativamente más caros que otros tipos y como derivados del sacrificio animal tampoco son vegetarianos.
Espermicida[editar]
Algunos preservativos de látex están lubricados de fábrica con una cantidad pequeña de un nonoxynol-9, un espermicida. Según Consumer Reports, los preservativos lubricados con espermicida no tienen un beneficio adicional en impedir el embarazo, tiene un tiempo de caducidad más escaso y pueden causar infecciones de tracto urinario en mujeres.73 Por el contrario, se cree que la aplicación por separado de espermicida sí aumenta la eficacia anticonceptiva de los preservativos.7
Antes se creía que el nonoxynol-9 ofrecía protección adicional contra ITS (incluyendo el VIH) pero los estudios recientes han mostrado que, con el uso frecuente, este puede aumentar el riesgo de transmisión del VIH.74 La Organización Mundial de la Salud dice que ya no se debe promover el uso de preservativos lubricados con espermicida. No obstante, recomienda que es preferible utilizar un preservativo lubricado nonoxynol-9 que ningún preservativo en absoluto.75 Para 2005, nueve fabricantes de preservativo han dejado de producir preservativos con nonoxynol-9 y Planned Parenthood ha interrumpido la distribución de preservativos así lubricados.76 77
Textura[editar]

Un preservativo acanalado.
Entre los preservativos con textura existen los acanalados y tachonados que pueden proveer de sensaciones extras para ambos individuos. Los canales o tachones pueden localizarse en el interior, exterior o ambos; alternativamente pueden localizarse en secciones específicas para proveer de estimulación directa a ya sea el punto G o frenillo. Muchos de estos preservativos que se promocionan como "placer mutuo" además tienen forma de bulbo en la punta que provee una estimulación extra al pene.78 Algunas mujeres experimentan irritación durante el coito vaginal con los preservativos tachonados.
Preservativos adolescentes[editar]
En marzo de 2010, el gobierno suizo anunció que planeaba promover los preservativos más pequeños pensados para muchachos de 12-14 años en respuesta a la preocupación sobre el índice de embarazo adolescente y también sobre la propagación potencial de ITS entre este grupo etario. Esto se debió al hecho que los preservativos estándares eran demasiado anchos y en consecuencia fracasaban en proporcionar protección a adolescentes durante el sexo vaginal y anal. Grupos de planificación familiar y la Federación Suiza del Sida habían hecho campaña para tener un preservativo más estrecho pensado en los jóvenes después de varios estudios, incluido un estudio gubernamental investigado en el Centro para el Desarrollo y la Psicología de la Personalidad en la Universidad de Basilea, halló que los preservativos estándares eran inadecuados para varones en esta gama de edad y que los preservativos fallaban durante el uso o que los chicos los rechazaban del todo porque eran demasiado anchos y por consiguiente no utilizaron ninguna protección en absoluto. 79
A raíz de estos estudios, un preservativo dirigido a adolescentes de 12 a 14 años es ahora producido y comercializado en Suiza y en otros países. Fabricado por Ceylor, el "Hotshot" es un preservativo de látex lubricado con punta en tetilla qué es más estrecho que un preservativo estándar y tiene una banda ajustada en la entrada para asegurar que se mantiene en el pene adolescente durante el sexo. Un preservativo estándar tiene un diámetro de 5,2 cm mientras que el Hotshot tiene un diámetro de 4,5 cm. Ambos tienen la misma longitud de 19 cm. En 2014, en respuesta a la exigencia de preservativos de un grupo de jóvenes, el fabricante de preservativos alemán Amor empezó a producir otro preservativo dirigido a adolescentes. Sabido cuando "Amor Young Love", estos preservativos lubricados tienen un diámetro de 4,9 cm.
Otros[editar]
El preservativo antiviolación es otra variación diseñado para mujeres. Está diseñado para causar dolor al atacante, con la esperanza de permitir a la víctima una posibilidad de huir.80
Un preservativo de colección se usa para recoger semen para tratamientos de fertilidad o análisis de esperma. Estos preservativos están diseñados para maximizar la vida de los espermatozoides.
Algunos dispositivos tipo preservativo solo tienen fines de entretenimiento, como los preservativos luminescentes. Estas novedades pueden no proporcionar protección frente el embarazo y las ITS.8
Prevalencia[editar]
La prevalencia del uso de preservativo varía mucho entre países. La mayoría de las encuestas son realizadas a mujeres casadas en relaciones informales. Japón tiene el índice más alto de uso de preservativo en el mundo: en aquel país, los preservativos representa el 80 % del uso de anticonceptivos por mujeres casadas. En promedio, en los países desarrollados, los preservativos son el método más popular de control de natalidad: el 28 % de los usuarios casados de anticonceptivos confían en los preservativos. El promedio en los países menos desarrollados, los preservativos son menos comunes: solo el 6-8 % de los usuarios casados de anticonceptivos escogen los preservativos.81

Ha recibido 935 puntos

Vótalo:

FRIGORÍFICO (1854)

21. FRIGORÍFICO (1854)

https://www.youtube.com/watch?v=6Jn2qxXZUUQ

El frigider,1 el frigorífico,2 la heladera,3 la nevera,4 el refrigerador5 o la refrigeradora6 es un dispositivo empleado principalmente en cocina y en laboratorio que consiste en un armario aislado térmicamente, con un compartimento principal en el que se mantiene una temperatura de entre 2 y 6... Ver mas
El frigider,1 el frigorífico,2 la heladera,3 la nevera,4 el refrigerador5 o la refrigeradora6 es un dispositivo empleado principalmente en cocina y en laboratorio que consiste en un armario aislado térmicamente, con un compartimento principal en el que se mantiene una temperatura de entre 2 y 6 °C y también, frecuentemente, un compartimento extra utilizado para congelación (a −18 °C) llamado congelador.
El frío se produce mediante un sistema de refrigeración por compresión, alimentado por corriente eléctrica y, a veces, por un sistema de absorción usando como combustible queroseno o gas butano.
Es uno de los electrodomésticos más comunes en el mundo.[cita requerida]
Se conoce como refrigeración al enfriamiento de un cuerpo por transferencia de calor. Algunas aplicaciones típicas son la conservación, en particular de alimentos, y también el enfriamiento de bebidas para hacer su consumo más agradable.
Índice [ocultar]
1 Nomenclatura
1.1 Uso en distintos países hispanohablantes
2 Funcionamiento
3 Historia
4 Fabricahielo
5 Reciclado de refrigeradores
6 Véase también
7 Referencias
8 Enlaces externos
Nomenclatura[editar]
En tiempos pasados, en España,[cita requerida] la «nevera» (‘donde se guarda la nieve’) era un armario, a menudo de madera, aislado con corcho, en el que se ponía nieve procedente de pozos de nieve, antes de la invención de los sistemas de refrigeración mecánica; cuando se inventaron estos, y todavía no había llegado el refrigerador eléctrico a las casas, se ponía hielo procedente de fábricas de hielo. Aunque en la actualidad ya no se usa nieve, como la función de los antiguos y de los modernos es la misma, se sigue empleando el término.
El nombre «heladera» (‘que hiela’) proviene de cuando se utilizaba hielo (análogamente a cuando se llamaba nevera).[cita requerida]
En Argentina, la máquina de fabricar helados, se llama «heladora» o «máquina de hacer helado» o «máquina para fabricar helado».
En España,[cita requerida] «refrigeradora» (y en menor medida «refrigerador») se emplea para las máquinas grandes de producción de frío para la refrigeración ambiental (climatización).
En ciertas regiones hispanohablantes, el término «frigorífico» (‘que enfría’)2 denomina a los establecimientos dedicados al procesamiento de determinados alimentos (por ejemplo frigoríficos de carnes o de frutas).
En cualquier caso, todos los términos mencionados a continuación son correctos y solamente difieren en la preferencia de uso de cada región.
Uso en distintos países hispanohablantes[editar]
Nombre País
Frigidaire Argentina, en desuso. (Más común: «heladera»);1
Bolivia;1
Cuba (también «frío» y «refrigerador»);1 7
República Dominicana1
Frigider Chile, en desuso.1 Actualmente se le dice «refrigerador».8
Frigorífico España. Se abrevia comúnmente «frigo». En cambio se le llama «nevera» a la caja portátil hermética a la que se le agrega hielo para conservar los alimentos en un picnic. En el siglo XX también se llamaba «nevera» al mueble alacena en el que se introducía una barra de hielo para mantener fresca la comida (había un repartidor de hielo que iba por las casas).7
Frío Cuba (también «frigidaire» y «refrigerador»).7
Heladera Argentina. El compartimento superior, donde se hace hielo, se llama «congelador». Pero si ese compartimiento produce más frío que un congelador, se llama freezer ([fríser]).7
Uruguay[cita requerida]
Nevera Chile, en desuso (actualmente se le dice «refrigerador»). Actualmente se le dice «nevera» a una caja portátil hermética a la que se le agrega hielo para conservar los alimentos en un picnic7
Colombia[cita requerida]
Países del Caribe. El compartimento superior, donde se hace hielo, se llama «congelador»7
Venezuela. El compartimento superior, donde se hace hielo, se llama «congelador».7
Refri Perú1
Refrigerador Chile8
Cuba. El compartimento superior, donde se hace hielo, se llama «congelador» o «frízer» ([fríser]). Frigorífico se le dice a una cámara de refrigeración, de uso industrial.7
Ecuador[cita requerida]
México (se abrevia «el refri»). El compartimento superior, donde se hace hielo, se llama «congelador»7
Refrigeradora Ecuador
Honduras
Nicaragua (se abrevia «la refri»)7
Perú[cita requerida]
Funcionamiento[editar]

Ejemplo de etiquetado energético de la UE para un refrigerador.
La función de una máquina de refrigeración es tomar el calor de un ambiente a baja temperatura (para el refrigerador sería la cocina) y cederlo en el ambiente exterior (en este caso un armario cerrado y aislado térmicamente), empleando una fuente de energía externa para mantener el proceso. Un refrigerador es una bomba de calor (como las de agua, bombea calor de un lugar a bajo nivel térmico a otro de mayor nivel), impulsada generalmente por un motor eléctrico. Es asimismo posible emplear sales eutécticas o absorción.
Para que la eficiencia sea mayor, la diferencia de temperatura entre el condensador, (que contiene el calor absorbido por el refrigerante en el evaporador) y el aire ambiente debe ser máxima, ya que es en este lugar donde el calor sale del aparato. Por este motivo son más eficientes en invierno que en verano y en cualquier época, su consumo es menor si se sitúa en un lugar fresco. Asimismo debe procurarse que el intercambiador de calor externo (o condensador), que suele estar en la parte trasera del aparato, tenga una buena ventilación.
También son más eficientes y, por lo tanto consumen menos, los aparatos que disponen de dos compresores, uno para cada compartimento (refrigeración y congelación). Efectivamente, si se está abriendo constantemente la puerta del refrigerador (mientras se prepara la comida), se pondrá en marcha solamente uno de los dos compresores, sin añadir frío, que no hace falta, al compartimento congelador.
Historia[editar]
Uno de los pioneros del refrigerador fue Charles Tellier, que en 1867 inventó un dispositivo destinado a fabricar hielo. Entre 1868 y 1869 se centró en el análisis del frío industrial y sus aplicaciones. Pronto se dedicó a la fabricación de aparatos frigoríficos para la conservación de los alimentos. Introdujo el éter dimetílico y la trimetilamina en la industria, y en 1876 consiguió construir el primer frigorífico plenamente funcional.9
Ese mismo año acondicionó un buque para transportar carne refrigerada. De esta manera se llevó a cabo el primer transporte a larga distancia entre Buenos Aires (Argentina) y la ciudad de Ruan (Francia), permitiendo que se pudiera consumir carne sudamericana en Europa, cosa que antes hubiera sido impensable. Con esto dio comienzo un intenso tráfico de carne entre Europa y América.9
A pesar de la importancia de su invento, Tellier se mostró carente del espíritu empresarial necesario para explotarlo comercialmente. Recibió honores, sobre todo en Uruguay y Argentina (grandes beneficiarios del invento, que les permitía exportar carne a Europa), donde se abrieron colectas para intentar ayudar a Tellier. Con todo, falleció en París casi en la miseria. Además de su invento legó una importante obra, titulada Historia de una invención moderna: el frigorífico (París, 1910).9
== Características == hola

Frigorífico con la puerta abierta, lleno de botellas de cerveza.
Los refrigeradores domésticos pueden tener un solo compartimento, que puede ser de congelación, o bien dos. Los frigoríficos con dos compartimentos fueron comercializados por primera vez por General Electric en 1939.
En Europa los refrigeradores se clasifican en cuatro tipos, que se indican con estrellas:
**** −30 °C (congelador; congelación)
*** −20 °C (congelador; conservación)
** 0 °C (frigorífico; carnes)
* 4 °C (frigorífico)
La capacidad del refrigerador se acostumbra a medir en litros.
Las posibilidades de los refrigeradores más recientes se han ampliado notablemente; pueden tener:
Una pantalla de cristal líquido que sugiere qué tipos de comida deberían almacenarse a qué temperaturas y la fecha de caducidad de los productos almacenados.
Indicador de las condiciones del filtro que avisa cuando llega el momento de cambiarlo.
Una advertencia de apagón, alertando al usuario sobre la ocurrencia del mismo, usualmente al parpadear la pantalla que muestra la temperatura. Puede mostrar la temperatura máxima alcanzada durante el apagón (al no haber refrigeración por falta de energía eléctrica), junto con información sobre si la comida congelada se descongeló o si hay posibilidad de que como resultado de la interrupción de la refrigeración pueda albergar bacterias dañinas.
Fabricahielo[editar]
El «fabricahielo» es un dispositivo encontrado a menudo dentro de los congeladores y es empleado para producir hielo automáticamente.
Los fabricantes comerciales de cubitos de hielo mejoran la calidad del mismo mediante el uso de agua en movimiento. Básicamente la idea es que el agua se mueve muy rápidamente y a cambio se consigue un hielo de mejor calidad.
Los residuos gaseosos y sólidos como el aire y los sólidos no disueltos son eliminados por la limpieza automática del electrodoméstico, hasta tal punto que en las máquinas evaporadoras horizontales el agua contiene un 98% de los sólidos eliminados, lo cual no podría hacerse con el hielo puro, y eso sin tener en cuenta que además el hielo está más frío.
En las máquinas evaporadoras verticales el hielo es más suave, sobre todo si hay partículas en las celdas de los cubitos de hielo; no obstante, este tipo de hielo está menos frío que el hielo que se forma en las máquinas evaporadoras horizontales.
Reciclado de refrigeradores[editar]

Un primitivo refrigerador, con un intercambiador de calor cilíndrico arriba. Ahora en la colección del Thinktank, Museo de Ciencias de Birmingham (Reino Unido).
El reciclaje de los refrigeradores viejos es un tema de preocupación desde el punto de vista ecológico: originalmente la atención se centró en el hecho de que el fluido refrigerante freón (empleado para la congelación) dañaba la capa de ozono de la atmósfera en caso de fuga, ya que está compuesto por clorofluorocarbonos (CFC), que dañan la capa de ozono cuando llegan a la alta atmósfera. La historia del uso industrial de los freones se extiende desde 1874 hasta enero de 1987, cuando el Protocolo de Montreal prohibió el uso de los CFC en refrigeradores.
Los refrigeradores modernos, en lugar de freón emplean un refrigerante llamado HFC-134a 1,2,2,2-tetrafluoroetano, que no descompone el ozono pero que es un gas de efecto invernadero regulado por el Protocolo de Kioto.
En cuanto al resto de los componentes, metales o plásticos, es natural reutizarlos para fabricar otros aparatos.
En México, el Gobierno federal ha creado el programa «Cambia tu viejo por uno nuevo». Este programa consiste en ofrecerle a las familias cambiar un refrigerador viejo por uno nuevo. Los refrigeradores viejos son reciclados para recuperar sus componentes como el gas refrigerante, cobre, vidrio, acero, entre otros, además de ahorrar energía, esto logrado a los sistemas presentes en todos los refrigeradores ofertados en el programa.10

Ha recibido 901 puntos

Vótalo:

TELÉFONO (1871/1876)

22. TELÉFONO (1871/1876)

https://www.youtube.com/watch?v=3kiC4S7YGys

El teléfono es un dispositivo de telecomunicación diseñado para transmitir señales acústicas a distancia por medio de señales eléctricas. Durante mucho tiempo Alexander Graham Bell fue considerado el inventor del teléfono, junto con Elisha Gray. Sin embargo, Bell no fue el inventor de este... Ver mas
El teléfono es un dispositivo de telecomunicación diseñado para transmitir señales acústicas a distancia por medio de señales eléctricas.
Durante mucho tiempo Alexander Graham Bell fue considerado el inventor del teléfono, junto con Elisha Gray. Sin embargo, Bell no fue el inventor de este aparato, sino solamente el primero en patentarlo. Esto ocurrió en 1876. El 11 de junio de 2002 el Congreso de Estados Unidos aprobó la resolución 269, que se reconocía que el inventor del teléfono había sido Antonio Meucci, que lo llamó teletrófono, y no Bell.1
En 1871 Meucci solo pudo, por dificultades económicas, presentar una breve descripción de su invento, pero no formalizar la patente ante la Oficina de Patentes de Estados Unidos.
Índice [ocultar]
1 Historia
1.1 Historia de su invención
1.2 Evolución del teléfono y su utilización
2 Funcionamiento
2.1 Circuito de conversación: la híbrida telefónica
2.1.1 Transferencia de señal desde el micrófono a la línea
2.1.2 Transferencia de señal desde la línea al auricular
2.2 Circuito de marcación
2.2.1 Marcación por tonos
2.3 Timbre
3 Véase también
4 Referencias
5 Enlaces externos
Historia[editar]
Historia de su invención[editar]
Alrededor del año 1857, Antonio Meucci construyó un teléfono para conectar su oficina con su dormitorio, ubicado en el segundo piso, debido al reumatismo de su esposa.2 Sin embargo carecía del dinero suficiente para patentar su invento, por lo que lo presentó a una empresa (Western Union, quienes promocionaron el «invento» de Graham Bell) que no le prestó atención, pero que tampoco le devolvió los materiales.
En 1876, tras haber descubierto que para transmitir voz humana solo se podía utilizar una corriente continua, el inventor escocés nacionalizado en EE. UU. Alexander Graham Bell construyó y patentó unas horas antes que su compañero Elisha Gray el primer teléfono capaz de transmitir y recibir voz humana con toda su calidad y timbre. Tampoco se debe dejar de lado a Thomas Alva Edison, que introdujo notables mejoras en el sistema, entre las que se encuentra el micrófono de gránulos de carbón.
El 11 de junio de 2002, el Congreso de los Estados Unidos aprobó la resolución 269 por la que reconoció que el inventor del teléfono había sido Antonio Meucci y no Alexander Graham Bell. En la resolución, aprobada por unanimidad, los representantes estadounidenses estiman que «la vida y obra de Antonio Meucci debe ser reconocida legalmente, y que su trabajo en la invención del teléfono debe ser admitida». Según el texto de esta resolución, Meucci instaló un dispositivo rudimentario de telecomunicaciones entre el sótano de su casa de Staten Island (Nueva York) y la habitación de su mujer, en la primera planta.
Evolución del teléfono y su utilización[editar]

Teléfono digital Panasonic.
Desde su concepción original se han ido introduciendo mejoras sucesivas, fuese en el propio aparato telefónico como en los métodos y sistemas de explotación de la red.
En lo que se refiere al propio aparato telefónico, se pueden señalar varias cosas:
La introducción del micrófono de carbón, que aumentaba de forma considerable la potencia emitida, y por tanto el alcance máximo de la comunicación.
El dispositivo antilocal Luink, para evitar la perturbación en la audición causada por el ruido ambiente del local donde está instalado el teléfono.
La marcación por pulsos mediante el denominado disco de marcar.
La marcación por tonos multifrecuencia.
La introducción del micrófono electret o electret, micrófono de condensador, prácticamente usado en todos los aparatos modernos, que mejora de forma considerable la calidad del sonido.
En cuanto a los métodos y sistemas de explotación de la red telefónica, se pueden señalar:
La telefonía fija o convencional, que es aquella que hace referencia a las líneas y equipos que se encargan de la comunicación entre terminales telefónicos no portables, y generalmente enlazados entre ellos o con la central por medio de conductores metálicos.
La central telefónica de conmutación manual para la interconexión mediante la intervención de un operador/a de distintos teléfonos (Harlond)[cita requerida], creando de esta forma un primer modelo de red. Primeramente fueron las centrales manuales de batería local (teléfonos alimentados por pilas o baterías) y posteriormente fueron las centrales manuales de batería central (teléfonos alimentados desde la central).
La introducción de las centrales telefónicas de conmutación automática, constituidas mediante dispositivos electromecánicos, de las que han existido, y en algunos casos aún existen, diversos sistemas:sistema de conmutación rotary (en España sistemas 7A1, 7A2, 7D, 7BR, AGF), y sistema con conmutador de barras cruzadas (En España: Sistemas Pentaconta 1000, PC32, ARF) y otros más complejos.
Las centrales de conmutación automática electromecánicas, pero controladas por computadora (En España: Sistema MORE). También llamadas centrales semielectrónicas (en España: sistemas Pentaconta 2000, Metaconta, ARE).
Las centrales digitales de conmutación automática totalmente electrónicas y controladas por ordenador, la práctica totalidad de las actuales, que permiten multitud de servicios complementarios al propio establecimiento de la comunicación (los denominados servicios de valor añadido). En España: Sistemas AXE (de Ericsson), Sistema 12 o 1240 (Alcatel) y sistema 5ESS (Lucent).
La introducción de la Red Digital de Servicios Integrados (RDSI) y las técnicas DSL o de banda ancha (ADSL, HDSL, etc,), que permiten la transmisión de datos a más alta velocidad.
La telefonía móvil o celular, que posibilita la transmisión inalámbrica de voz y datos, pudiendo ser estos a alta velocidad en los nuevos equipos de tercera generación.
Existen casos particulares, en telefonía fija, en los que la conexión con la central se hace por medios radioeléctricos, como es el caso de la telefonía rural mediante acceso celular (TRAC), en la que se utiliza parte de la infraestructura de telefonía móvil para facilitar servicio telefónico a zonas de difícil acceso para las líneas convencionales de hilo de cobre. No obstante, estas líneas a todos los efectos se consideran como de telefonía fija.
Funcionamiento[editar]

Figura 1. Circuito de conversación simplificado.
El teléfono convencional está formado por dos circuitos que funcionan juntos: el circuito de conversación, que es la parte analógica, y el circuito de marcación, que se encarga de la marcación y llamada.
Tanto las señales de voz como las de marcación y llamada (señalización), así como la alimentación, comparten el mismo par de hilos; a esto a veces se le llama «señalización dentro de la banda (de voz)».
La impedancia característica de la línea es 600 Ω. Lo más llamativo es que las señales procedentes del teléfono hacia la central y las que se dirigen a él desde ella viajan por esa misma línea de sólo dos hilos. Para poder combinar en una misma línea dos señales (ondas electromagnéticas) que viajen en sentidos opuestos y para luego poder separarlas se utiliza un dispositivo llamado transformador híbrido o bobina híbrida, que no es más que un acoplador de potencia (duplexor).
Circuito de conversación: la híbrida telefónica[editar]
El circuito de conversación consta de cuatro componentes principales: la bobina híbrida; el auricular; el micrófono de carbón y una impedancia de 600 Ω, para equilibrar la híbrida. La híbrida consiste en un transformador con tres bobinados, L1, L2 y L3, según se muestra en la figura 1. Los componentes se conectan de acuerdo a la misma figura 1.
Transferencia de señal desde el micrófono a la línea[editar]
La señal que se origina en el micrófono se reparte a partes iguales entre L1 y L2. La primera va a la línea y la segunda se pierde en la carga, pero L1 y L2 inducen corrientes iguales y de sentido contrario en L3, que se cancelan entre sí, evitando que la señal del micrófono alcance el auricular. En la práctica la impedancia de la carga no es exactamente igual a la impedancia de la línea, por lo que las corrientes inducidas en L3 no se anulan completamente. Esto tiene un efecto útil, cual es que parte de la señal generada en el micrófono se escuche también en el auricular local (efecto «side tone»), lo que permite que quién habla se escuche asimismo percibiendo que el «circuito no está muerto».
Transferencia de señal desde la línea al auricular[editar]

Figura 2. Circuito de conversación.
La señal que viene por la línea provoca la circulación de corrientes tanto por L1 como por L2. Estas corrientes inducen, sumándose, en L3 la corriente que se lleva al auricular. Si bien la señal que viene por la línea provoca la circulación de una pequeña corriente por el micrófono, este hecho no afecta la conversación telefónica.
El circuito de conversación real es algo más complejo: a) añade un varistor a la entrada, para mantener la polarización del micrófono a un nivel constante, independientemente de lo lejos que esté la central local; y b) mejora el efecto «side tone», conectando el auricular a la impedancia de carga, para que el usuario tenga una pequeña realimentación y pueda oír lo que dice. Sin ella, tendería a elevar mucho la voz.
En la actualidad los terminales telefónicos son construidos con híbridas de estado sólido y no en base al transformador multibobinado indicado anteriormente. Las híbridas de estado sólido, que se construyen con un circuito integrado ad hoc (como el MC34014P de Motorola) y unos cuantos componentes electrónicos, tienen una respuesta de frecuencia más plana ya que no usan bobinados. Los bobinados (impedancia inductiva) introducen distorsión al atenuar mucho más las señales de alta frecuencia que las de baja frecuencia.
Las híbridas de estado sólido se utilizan en conjunto con micrófonos de condensador y altoparlantes de 16 ohms.
Circuito de marcación[editar]

Figura 3. Teléfono completo.
Finalmente, el circuito de marcación mecánico, formado por el disco, que, cuando retrocede, acciona un interruptor el número de veces que corresponde al dígito. El cero tiene 10 pulsos. El timbre va conectado a la línea a través del «gancho», que es un conmutador que se acciona al descolgar. Una tensión alterna de 75 V en la línea hace sonar el timbre.
Marcación por tonos[editar]
Como la línea alimenta el micrófono a 4.8 V, esta tensión se puede utilizar para alimentar, también, circuitos electrónicos. Uno de ellos es el marcador por tonos. Tiene lugar mediante un teclado que contiene los dígitos y alguna tecla más (* y #), cuya pulsación produce el envío de dos tonos simultáneos para cada pulsación. Estos circuitos podían ser tanto bipolares (I²L, normalmente) como CMOS, y añadían nuevas prestaciones, como repetición del último número (redial) o memorias para marcación rápida, pulsando una sola tecla.
Timbre[editar]
Artículo principal: Ringtone

Timbre de teléfono
MENÚ0:00
El sonido del timbre de un teléfono británico modelo 500.
¿Problemas al reproducir este archivo?
El timbre electromecánico, que se basa en un electroimán que acciona un badajo que golpea la campana a la frecuencia de la corriente de llamada (25 Hz), se ha visto sustituido por generadores de llamada electrónicos, que, igual que el timbre electromecánico, funcionan con la tensión de llamada (75 V de corriente alterna a una frecuencia de 25 Hz, enviada superpuesta a los 48 voltios de tensión continua de la línea). Suelen incorporar un oscilador de periodo en torno a 0,5 s, que conmuta la salida entre dos tonos producidos por otro oscilador. El circuito va conectado a un pequeño altavoz piezoeléctrico. Resulta curioso que se busquen tonos agradables para sustituir la estridencia del timbre electromecánico, cuando éste había sido elegido precisamente por ser muy molesto y obligar así al usuario a atender la llamada gracias al timbre.

Ha recibido 890 puntos

Vótalo:

AVIÓN (1903)

23. AVIÓN (1903)

https://www.youtube.com/watch?v=eOPaF64j5CU

Un avión (del francés avion,1 y este como forma aumentativa del latín avis, ave), también denominado aeroplano, es un aerodino de ala fija, o aeronave con mayor densidad que el aire, dotado de alas y un espacio de carga capaz de volar, impulsado por ninguno, uno o más motores. Los aeroplanos... Ver mas
Un avión (del francés avion,1 y este como forma aumentativa del latín avis, ave), también denominado aeroplano, es un aerodino de ala fija, o aeronave con mayor densidad que el aire, dotado de alas y un espacio de carga capaz de volar, impulsado por ninguno, uno o más motores. Los aeroplanos incluyen a los monoplanos, biplanos y triplanos. Los aeroplanos sin motor se han mantenido desde los inicios de la aviación para aviación deportiva y en la segunda guerra mundial para transporte de tropas, se denominan planeadores o veleros.
Según la definición de la OACI, es un «Aerodino propulsado por motor, que debe su sustentación en vuelo principalmente a reacciones aerodinámicas ejercidas sobre superficies que permanecen fijas en determinadas condiciones de vuelo.»2
Pueden clasificarse por su uso como aviones civiles (que pueden ser de carga, transporte de pasajeros, entrenamiento, sanitarios, contra incendios, etc.) y aviones militares (carga, transporte de tropas, cazas, bombarderos, de reconocimiento o espías, de reabastecimiento en vuelo, etc.).
También pueden clasificarse en función de su planta motriz; aviones propulsados por motores a pistón, motores a reacción (turborreactor, turborreactor de doble flujo, turbohélice, etc.) o propulsores (cohetes).
Su principio de funcionamiento se basa en la fuerza aerodinámica que se genera sobre las alas, en sentido ascendente, llamada sustentación. Esta se origina por la diferencia de presiones entre la parte superior e inferior del ala, producida por la forma del perfil alar.
Índice [ocultar]
1 Historia
2 Estructura
2.1 Superficies de sustentación
2.2 Alas
2.3 Fuselaje
2.4 Superficies de control
2.4.1 Alerones
2.4.2 Flaps
2.4.3 Spoilers
2.4.4 Slats
2.4.5 Estabilizadores horizontales
2.4.6 Estabilizadores verticales
2.4.7 Acción de los componentes
2.5 Grupo motopropulsor
2.6 Tren de aterrizaje
2.7 Instrumentos de control
3 Aviación comercial
4 Véase también
5 Referencias
6 Enlaces externos
Historia[editar]
Artículos principales: Historia de la aviación y Cronología de la aviación.

Vuelo de los hermanos Wright en 1903.

Douglas DC-3 de 1935, uno de los aviones más producido.

Bell X-1 de 1947, el primer avión supersónico.

Lockheed SR-71 de 1964, el avión más rápido de la historia.

El Antonov An-225 de 1988.

F-22 Raptor volando a velocidad supersónica. La invención del motor a reacción durante la Segunda Guerra Mundial revolucionó la aviación.
El sueño de volar se remonta a la prehistoria. Muchas leyendas y mitos de la antigüedad cuentan historias de vuelos como el caso griego del vuelo de Ícaro. Leonardo da Vinci, entre otros inventores visionarios, diseñó un Avión, en el siglo XV. Con el primer vuelo realizado por el ser humano por François de Rozier y el marqués de Arlandes(en 1783) en un aparato más liviano que el aire, un globo de papel construido por los hermanos Montgolfier, lleno de aire caliente, el mayor desafío pasó a ser la construcción de una máquina más pesada que el aire, capaz de alzar vuelo por sus propios medios.
Años de investigaciones por muchas personas ansiosas de conseguir esa proeza, generaron resultados débiles y lentos, pero continuados. El 28 de agosto de 1883, John Joseph Montgomery fue la primera persona en realizar un vuelo controlado con una máquina más pesada que el aire, un planeador. Otros investigadores que hicieron vuelos semejantes en aquella época fueron Otto Lilienthal, Percy Pilcher y Octave Chanute.
Sir George Cayley, que sentó las bases de la aerodinámica, ya construía y hacía volar prototipos de aeronaves de ala fija desde 1803, y consiguió construir un exitoso planeador con capacidad para transportar pasajeros en 1853, aunque debido a que no poseía motores no podía ser calificado de avión.
El primer avión propiamente dicho fue creado por Clément Ader, el 9 de octubre de 1890 consigue despegar y volar 50 m con su Éole. Posteriormente repite la hazaña con el Avión II que vuela 200 m en 1892 y el Avión III que en 1897 vuela una distancia de más de 300 m. El vuelo del Éole fue el primer vuelo autopropulsado de la historia de la humanidad, y es considerado como la fecha de inicio de la aviación en Europa.
Según la Fédération Aéronautique Internationale (FAI), el 17 de diciembre de 1903, los hermanos Wright realizaron «el primer vuelo sostenido y controlado de un aerodino impulsado por un motor»3 durante 12 segundos y en el que recorrieron unos 36,5 metros.4
Unos años más tarde, el 23 de noviembre de 1906, el brasileño Santos Dumont fue el primer hombre en despegar a bordo de un avión impulsado por un motor aeronáutico, estableciendo así el primer récord mundial reconocido por el Aéro-Club de France5 al volar 220 m en menos de 22 segundos.6 Voló una altura de 2 a 3 metros del suelo con su 14-bis, en el campo de Bagatelle en París.7 Santos Dumont fue así la primera persona en realizar un vuelo en una aeronave más pesada que el aire por medios propios, ya que el Kitty Hawk de los hermanos Wright necesitó de una catapulta hasta 1908.
En 1911 aparece el primer hidroavión gracias al estadounidense Glen H. Curtiss; en 1913 el primer cuatrimotor, el «Le Grand», diseñado por el ruso Ígor Sikorski y en 1912, Juan Guillermo Villasana crea la hélice Anáhuac, fabricada de madera.8
Tras la Primera Guerra Mundial, los ingenieros entendieron, que el rendimiento de la hélice tenía su límite y comenzaron a buscar un nuevo método de propulsión para alcanzar mayores velocidades. En 1930, Frank Whittle patenta sus primeros motores de turbina de compresor centrífugo y Hans von Ohain hace lo propio en 1935 con sus motores de compresor axial de turbina. En Alemania, el 27 de agosto de 1939 despega el HE-178 de Heinkel que montaba un motor de Ohain, realizando el primer vuelo a reacción pura de la historia.
Estructura[editar]

Avión supersónico Concorde.
Los aviones más conocidos y usados por el gran público son los aviones de transporte de pasajeros, aunque la aviación general y la aviación deportiva se encuentran muy desarrolladas sobre todo en los Estados Unidos. No todos los aviones tienen la misma estructura, aunque tienen muchos elementos comunes. Los aviones de transporte usan todos una estructura semimonocasco de materiales metálicos o materiales compuestos formada por un revestimiento, generalmente de aluminio que soporta las cargas aerodinámicas y de presión y que es rigidizado por una serie de elementos estructurales y una serie de elementos longitudinales. Hasta los años 30 era muy frecuente la construcción de madera o de tubos de aluminio revestidos de tela.
Las estructuras de los aparatos de aviación ligera o deportiva se hacen cada vez más de fibra de vidrio y otros materiales compuestos.
Los principales componentes de los aviones son:
Superficies de sustentación[editar]
Una superficie de sustentación es cualquier superficie diseñada para obtener una fuerza de reacción cuando se encuentra en movimiento relativo con respecto al aire que la rodea. Dos ejemplos de superficies de sustentación son las alas de los aviones o la hoja de una hélice.
Alas[editar]
Artículo principal: Ala (aeronáutica)

Ala de un Airbus A320.
Las alas, constituidas por una superficie aerodinámica que le brinda sustentación al avión debido al efecto aerodinámico, provocado por la curvatura de la parte superior del ala (extradós) que hace que el aire que fluye por encima de esta se acelere y por lo tanto baje su presión (creando un efecto de succión), mientras que el aire que circula por debajo del ala (que en la mayoría de los casos es plana o con una curvatura menor y a la cual llamaremos intradós) mantiene la misma velocidad y presión del aire relativo, pero al mismo tiempo aumenta la sustentación ya que cuando este incide sobre la parte inferior del ala la contribuye a la sustentación, fuerza que contrarresta la acción de la gravedad.
Las partes más importantes de un ala son:
a) Borde de ataque. Es la parte del ala que encara al viento cuando el avión se encuentra en vuelo, normalmente tiene una forma redondeada.
b) Borde de salida. Es la parte trasera del ala y es la última sección que pasa a través del aire, su forma normalmente es delgada y aplanada.
c) Comba. Es la curvatura de un ala, va desde el borde de ataque hasta el borde de salida.
Fuselaje[editar]
Artículo principal: Fuselaje

Algunos tipos de fuselajes:
1:Para vuelo subsónico. 2:Para vuelo supersónico de alta velocidad. 3:Para vuelo subsónico con góndola de gran capacidad. 4:Para vuelo supersónico de gran maniobrabilidad. 5:Para hidroavión. 6:Para vuelo hipersónico.
El fuselaje es el cuerpo del avión al que se encuentran unidas las alas y los estabilizadores tanto horizontales como verticales. Su interior es hueco, para poder albergar dentro a la cabina de pasajeros y la de mandos y los compartimentos de carga. Su tamaño, obviamente, vendrá determinado por el diseño de la aeronave.
Superficies de control[editar]
En determinadas partes de un vuelo la configuración del ala se hace variar mediante las superficies de control o de mando que se encuentran en las alas: los alerones, presentes en todo tipo de avión, más otros que no siempre se hallan presentes, sobre todo en aparatos más ligeros, aunque sí en los de mayor tamaño: son los flaps, los spoilers y los slats. Todas ellas son partes móviles que provocan distintos efectos en el curso del vuelo.
Artículo principal: Superficies estabilizadoras
Alerones[editar]
Los alerones son superficies móviles que se encuentran en los extremos de las alas y sobre el borde de salida de estas. Son los encargados de controlar el desplazamiento del avión sobre su eje longitudinal al crear una descompensación aerodinámica de las alas, que es la que permite al avión girar, ya que cuando se gira la palanca de mando hacia la izquierda el alerón derecho baja, creando más sustentación en el ala derecha, y el alerón izquierdo sube, desprendiendo artificialmente el flujo laminar del ala izquierda y provocando una pérdida de sustentación en esta; lo inverso ocurre cuando inclinamos la palanca de mando hacia la derecha. Todos los aviones presentan estas superficies de control primarias.
Además, y según su tamaño, las alas pueden llevar los siguientes dispositivos:
Flaps[editar]

Flaps de un Cessna 172.
Los flaps son dispositivos hipersustentadores que se encuentran ubicados en el borde de salida del ala; cuando están retraídos forman un solo cuerpo con el ala. Estos son utilizados en ciertas maniobras (comúnmente el despegue y el aterrizaje), en las cuales se extienden hacia atrás y abajo del ala a un determinado ángulo, aumentando su curvatura. Esto provoca una reacción en el perfil alar que induce más sustentación, o la misma con velocidad menor; al hacer que el flujo laminar recorra más distancia desde el borde de ataque al borde de salida, y proveyendo así de más sustentación a bajas velocidades y altos ángulos de ataque, al mismo tiempo los flaps generan más resistencia en la superficie alar, por lo que es necesario contrarrestarla, ya sea aplicando más potencia a los motores o disminuyendo el ángulo de ataque del avión. Este es con mucho el dispositivo hipersustentador más frecuente.
Además de estos, y a partir de un cierto tamaño de aparato, pueden existir los siguientes dispositivos hipersustentadores:
Spoilers[editar]

Spoilers de un Boeing 737.
Los spoilers son superficies móviles dispuestas en el extradós. Su función es reducir la sustentación generada por el ala cuando ello es requerido, por ejemplo, para aumentar el ritmo de descenso o en el momento de tocar tierra. Cuando son extendidos, separan prematuramente el flujo de aire que recorre el extradós provocando que el ala entre en pérdida, una pérdida controlada podríamos decir.
Slats[editar]
Los slats, al igual que los flaps, son dispositivos hipersustentadores; la diferencia está en que los slats se encuentran ubicados en el borde de ataque, y cuando son extendidos aumentan aún más la curvatura del ala, impidiendo el desprendimiento de la capa límite aun con elevados ángulos de ataque; es decir, a velocidades reducidas.
En las alas también se encuentran los tanques de combustible. La razón por la cual están ubicados allí es para que no influyan en el equilibrio longitudinal al irse gastando el combustible. Sirven de contrapesos cuando las alas comienzan a generar sustentación. Sin estos contrapesos y en un avión cargado, las alas podrían desprenderse fácilmente durante el despegue. También en la mayoría de los aviones comerciales, el tren de aterrizaje principal se encuentra empotrado en el ala, así como también los soportes de los motores.

Tipo de colas de avión: (A) estándar, (B) en forma de «T» (C) en forma de cruz, (D) con dos estabilizadores verticales, (E) con tres estabilizadores verticales, (F) en forma de «V».
Son todas aquellas superficies fijas y móviles del avión que al variar de posición provocarán un efecto aerodinámico que alterará la actitud del vuelo para un control correcto de la aeronave, a saber:
Estabilizadores horizontales[editar]
Artículo principal: Estabilizador horizontal
Son dos superficies más pequeñas que las alas, situadas siempre en posición horizontal (generalmente en la parte trasera del fuselaje, y en distintas posiciones y formas dependiendo del diseño, las cuales garantizan la estabilidad en el sentido longitudinal) es decir, garantizan un ángulo de ataque constante si el piloto no actúa sobre los mandos. En ellos se encuentran unas superficies de control esenciales que son los llamados timones de profundidad, con los cuales se controla la posición longitudinal del aparato, base de la regulación de la velocidad. Mediante el movimiento hacia arriba o hacia abajo de estas superficies, se inclina el avión hacia abajo o hacia arriba, lo que se llama control del ángulo de ataque, es decir su posición respecto a la línea de vuelo. Este es el movimiento de «cabeceo».
Estabilizadores verticales[editar]
Artículo principal: Estabilizador vertical
Es/Son una(s) aleta(s) que se encuentra (n) en posición vertical en la parte trasera del fuselaje (generalmente en la parte superior). Su número y forma deben ser determinadas por cálculos aeronáuticos según los requerimientos aerodinámicos y de diseño, que aporta la estabilidad direccional al avión. En este se encuentra una superficie de control muy importante, el timón de dirección, con el cual se tiene controlado el curso del vuelo mediante el movimiento hacia un lado u otro de esta superficie, girando hacia el lado determinado sobre su propio eje debido a efectos aerodinámicos. Este efecto se denomina movimiento de «guiñada».

Los tres ejes de rotación principales de una aeronave.
Acción de los componentes[editar]
Cada uno de estos componentes actúa sobre uno de los ángulos de navegación, que en ingeniería aeronáutica se denominan ángulos de Euler, y en geometría, ángulos de Tait-Bryan. Los ejes perpendiculares respecto de los que se realizan los giros en cada dirección son los ejes principales del avión, y los movimientos particulares se llaman alabeo (oscilación vertical alternada de las alas), cabeceo (oscilación vertical alternada de morro y cola) y guiñada (oscilación horizontal alternada de morro y cola).

Acción de alerones: alabeo.



Acción del timón de profundidad: cabeceo.



Acción del timón de dirección: guiñada.

Grupo motopropulsor[editar]
Artículo principal: Motor de aeronave
Son los dispositivos cuya función es la de generar la tracción necesaria para contrarrestar la resistencia aerodinámica que se genera precisamente por la sustentación. Estos motores son largamente desarrollados y probados por su fabricante. En el caso de los aviones sin motor o planeadores, la tracción se obtiene por el componente de la gravedad según el coeficiente de planeo.
Dentro del grupo motopropulsor existe una funcionalidad llamada reversa que sirva para invertir el empuje del motor y permitir que frene con mayor eficacia durante la carrera de aterrizaje. Esta funcionalidad la poseen los aviones de grandes prestaciones equipados con motores a reacción o turbohélices. El piloto una vez que el avión ha tomado tierra sobre la pista y está rodando a gran velocidad, activa la reversa, un mecanismo mecánico hace que el aire de los motores que se desprendía hacia atrás, salga ahora en dirección contraria y contribuya al frenado del avión.
Tren de aterrizaje[editar]
Artículo principal: Tren de aterrizaje

Tren de aterrizaje de un Boeing 777.
Los trenes de aterrizaje son unos dispositivos, bien fijos (aviación ligera) o bien móviles y retráctiles para que la aeronave se desplace por tierra, que no es su elemento natural. Permiten que la aeronave tenga movilidad en tierra. Existen varios tipos de trenes de aterrizaje, pero el más usado en la actualidad es el de triciclo, es decir, tres componentes, uno en la parte delantera y dos en las alas y parte de compartimientos dentro del ala y del fuselaje protegidos por las tapas de los mismos que pasan a formar parte de la aeronave, En el caso de que los trenes permanecieran en posición abierta generarían gran resistencia aerodinámica al avión, reduciendo su rendimiento y la velocidad, provocando un mayor uso de combustible. No todos los aviones tienen la capacidad de retraer sus trenes, sobre todo los más ligeros y económicos, incluso de transporte de pasajeros.
Instrumentos de control[editar]
Artículo principal: Instrumentos de vuelo

Simulador de vuelo FlightGear.

Cockpit de un Boeing 787.
Son dispositivos tanto mecánicos como electrónicos (aviónica) que permiten al piloto tener conocimiento de los parámetros de vuelo principales, como la velocidad, altura, rumbo, ritmo de ascenso o descenso, y del estado de los sistemas del avión durante el vuelo, como los motores, el sistema hidráulico, el eléctrico, las condiciones meteorológicas, el rumbo programado del vuelo, la ruta seguida.
Aviación comercial[editar]
Artículo principal: Aviación comercial

Embraer-175 de la empresa Embraer.

Airbus A380, avión comercial con mayor número de plazas.
La aviación comercial es una actividad que hacen las compañías aéreas, dedicadas al transporte aéreo bien de personas, bien de mercancías. En 1919 nacen las primeras compañías aéreas, KLM (7 de octubre - Países Bajos) en Europa y Avianca (5 de diciembre - Colombia) en América.
Lo que determina si un vuelo pertenece a la categoría de Aviación comercial es el propósito del vuelo, no el tipo de avión o el piloto. Así puede que un Cessna 150 funcionando como aerotaxi se considere aviación comercial mientras que un Airbus A319 ACJ utilizado por sus dueños se considere un transporte privado.
Los aviones de transporte de pasajeros, también denominados aviones comerciales son los que las compañías aéreas usan explícitamente para el transporte de pasajeros. Se suelen dividir en dos categorías; aviones de pasillo único (narrow-body), con un diámetro de fuselaje entre 3 y 4 metros de ancho y aviones de doble pasillo (wide-body) con un fuselaje entre 5 y 6 metros de ancho.
Uno de los aviones de pasillo único más vendidos en el mundo es el Boeing 737.9 El avión de pasajeros con mayor capacidad de transporte de viajeros es el Airbus A380, avión que puede llegar a transportar alrededor de 800 personas, en vez de las aproximadamente 500 que lleva un 747. El Boeing 747 fue presentado por primera vez en el año 1969.
No obstante, el avión más grande que se haya construido data de los años 1940 y fue diseñado por Howard Hughes, el magnate de la aviación. Denominado Hércules H4, o simplemente «Spruce Goose» es el hidroavión con mayor envergadura alar y altura del mundo. Propulsado por 8 motores de hélice, este avión solo realizó su vuelo inaugural, con Howard Hughes como piloto. En la actualidad esta aeronave se encuentra en relativamente buenas condiciones de conservación en el Evergreen Aviation Museum.
El avión en servicio más grande del mundo es el Antonov An-225 Mriya, construido en la Unión Soviética en 1988. Este avión se considera una reliquia porque solo se ha fabricado uno debido a la caída de la Unión Soviética.

Ha recibido 872 puntos

Vótalo:

ALCANTARILLADO (3300 a.C)

24. ALCANTARILLADO (3300 a.C)

https://www.youtube.com/watch?v=p5NMGiM3yVE

Se denomina alcantarillado (de alcantarilla, diminutivo de la palabra hispano-árabe al-qánṭara (القنطرة), «el puentecito») o también red de alcantarillado, red de saneamiento o red de drenaje al sistema de tuberías y construcciones usado para la recogida y transporte de las aguas residuales... Ver mas
Se denomina alcantarillado (de alcantarilla, diminutivo de la palabra hispano-árabe al-qánṭara (القنطرة), «el puentecito») o también red de alcantarillado, red de saneamiento o red de drenaje al sistema de tuberías y construcciones usado para la recogida y transporte de las aguas residuales, industriales y fluviales de una población desde el lugar en que se generan hasta el sitio en que se vierten al medio natural o se tratan.
Las redes de alcantarillado son estructuras hidráulicas que funcionan a presión atmosférica, por gravedad. Sólo muy raramente, y por tramos breves, están constituidos por tuberías que trabajan bajo presión o por vacío. Normalmente están constituidas por conductos de sección circular, oval o compuesta, la mayoría de las veces enterrados bajo las vías públicas.

Alcantarillado de París.
La red de alcantarillado se considera un servicio básico, sin embargo la cobertura de estas redes en las ciudades de países en desarrollo es ínfima en relación con la cobertura de las redes de agua potable. Esto genera importantes problemas sanitarios. Durante mucho tiempo, la preocupación de las autoridades municipales o departamentales estaba más ocupada en construir redes de agua potable, dejando para un futuro indefinido la construcción de las redes de alcantarillado. Actualmente la existencia de redes de alcantarillado es un requisito para aprobar la construcción de nuevas urbanizaciones en la mayoría de los países.
Índice [ocultar]
1 Historia
2 Sistemas de saneamiento y drenaje
2.1 Tendencias actuales
2.1.1 Alcantarillado sanitario
2.1.2 Alcantarillado pluvial
3 Componentes de una red de alcantarillado
3.1 Componentes principales de la red
3.2 Otros elementos complementarios
4 En países en vía de desarrollo
5 Referencias
5.1 Notas
6 Bibliografía
7 Véase también
8 Enlaces externos
Historia[editar]
El más antiguo alcantarillado de que se tiene referencia es el que fue construido en Nippur (India), alrededor del 3750 AC. Posteriormente en los centros poblados de Asia Menor y de Oriente Próximo utilizaron conductos de alfarería, (Creta, 1700 AC). En Atenas y Corinto, en la Grecia antigua, se construyeron verdaderos sistemas de alcantarillado. Se utilizaron canales rectangulares, cubiertos con losas planas (atarjeas, propiamente dichas), que eventualmente formaban parte del pavimento de las calles; a las atarjeas afluían otros conductos secundarios, formando verdaderas redes de alcantarillado.
Existen muchos relatos y descripciones de las alcantarillas de la antigüedad, quizás las más conocidas sean las de la antigua Roma, de París y de Londres, estas dos últimas alcantarillas construidas en Europa y en los Estados Unidos, se dirigían fundamentalmente a la recolección de las aguas de lluvia. Las aguas usadas de origen humano solo comenzaran a ser conectadas a las alcantarillas en 1815 en Londres, en Boston a partir de 1833, y en París, solo a partir de 18801
El primer sistema moderno de alcantarillado se diseñó en Hamburgo en 1842, utilizando las más modernas teorías de la época, teniendo en cuenta las condiciones topográficas y las necesidades reales de la comunidad. Este hecho significó un espectacular avance, considerando que los principios fundamentales en que se basó el proyecto no se generalizaron hasta inicios de los 1900, y siguen vigentes en la actualidad.2
Sistemas de saneamiento y drenaje[editar]
Los alcantarillados se puede construir de dos modos:
redes unitarias: las que se proyectan y construyen para recibir en un único conducto, mezclándolas, tanto las aguas residuales (urbanas e industriales) como las pluviales generadas en el área urbana cubierta por la red.
redes separativas o redes separadas: constan de dos canalizaciones totalmente independientes; una, la red de alcantarillado sanitario, transporta las aguas residuales domésticas, comerciales e industriales hasta una estación depuradora; y la otra, la red de alcantarillado pluvial, conduce las aguas pluviales hasta el receptor, que puede ser un río, un lago o el mar.
Las redes de saneamiento surgieron en las ciudades europeas durante el siglo XIX en respuesta a los problemas sanitarios y epidemiológicos generados por la deficiente evacuación de las aguas fecales. En aquel momento la mayoría de estas ciudades disponían ya de un sistema de cloacas destinadas a la evacuación de las aguas de lluvia y residuales, pero sin conexión a éstas de las bajantes de los edificios. Las aguas residuales se vertían a la calle y la lluvia las arrastraba a las cloacas, desde donde iban a una cauce.
Desde mediados del siglo XX empezaron a construirse redes separativas, tras la aparición de los primeros sistemas de depuración, y con base en los siguientes argumentos:
la separación reduce los costes de depuración y simplifica los procesos, puesto que el caudal tratado es menor y, lo que es incluso más importante, más constante;
la separación reduce la carga contaminante vertida al medio receptor por los episodios de rebosamiento del alcantarillado unitario.
Siendo correctos los argumentos anteriores, existen también una serie de inconvenientes del alcantarillado separativo, del cual desde finales de los años 1990 se está incrementando su uso, principalmente en redes de nueva implantación (la separación de redes unitarias existentes pronto se vio como económica y técnicamente inviable).[cita requerida]
Para el buen funcionamiento de las redes separadas debe prestarse mucha atención a los aspectos que siguen:
Debe existir un estricto control de vertidos para evitar que se acometan caudales residuales a la red de pluviales (que irían directamente al medio natural sin depurar) y viceversa. Esto último redundaría en una explotación más compleja y costosa de la red de alcantarillado sanitario.
La separación completa implica redes interiores separativas en los edificios, con duplicación de las bajantes. En este frente los costes de instalación son importantes.
Las aguas pluviales urbanas no son aguas limpias, si no que suelen estar sucias, por lo que su vertido directo al cauce puede generar una contaminación apreciable.
La red de pluviales de una red separativa puede permanecer, en climas secos, sin agua durante periodos de tiempo extensos, sin la autolimpieza de los conductos en tiempo de lluvia, por lo que puede llegar a ser necesaria la descarga de caudales de agua limpia por la red (arquetas de descarga en las cabeceras del saneamiento), reduciendo las ventajas de ahorro y eficiencia.
En comparación con las redes unitarias, los principales problemas son:
El coste de instalación es muy superior, entre 1,5 y 2 veces la red unitaria equivalente.
Los grandes cambios en el caudal dificultan mucho la operación de las plantas de tratamiento. Frecuentemente en los periodos de lluvias intensas las plantas de tratamiento son simplemente "by-pasadas", vertiendo los efluentes directamente sin tratamiento en los cuerpos receptores o construyendo balsas de retención para guardar durante unos días el exceso de aguas llegadas, mientras se van depurando.
Tendencias actuales[editar]
A partir de la última década del siglo XX se aprecia, en general, una preocupación de los gobiernos para disminuir la brecha existente entre la cobertura de las redes de abastecimiento de agua y las redes de alcantarillado sanitario. Simultáneamente ya no se acepta pensar en alcantarillado si no se integra también el tratamiento adecuado, en función de la categorización del receptor, de las aguas servidas recogidas. (En Europa es obligatorio en poblaciones de más de 5000 habitantes).
Habiendo casi siempre restricciones de carácter presupuestario, salvo casos excepcionales, las autoridades competentes dan prioridad a las redes de alcantarillado sanitario sobre las redes de recolección de aguas de lluvia.
En muchos países, las características de las redes de alcantarillado se han normalizado.nota 1
Alcantarillado sanitario[editar]
Inicialmente las redes de alcantarillado sanitario se construian con tubos de cemento, y fibrocemento; en algunos casos se utilizaron tubo de gres; actualmente, el material más utilizado es el PVC.
A partir de la década de 1990 cada vez se hace más frecuente el dimensionamiento de las tuberías considerando no solamente la velocidad mínima del agua en la tubería sino que también se considera la fuerza de arrastre del flujo. Esta variante permite trabajar con pendientes menores, lo que se constituye en una ventaja en zonas muy llanas.
Alcantarillado pluvial[editar]
Las redes de alcantarillado pluvial tienen varias concepciones diferentes. Frecuentemente son redes enterradas, pero se combinan con tramos constituidos con canales abiertos.
En la concepción de las redes de alcantarillado pluvial juegan un papel muy importante, además de la topografía, que domina también en el alcantarillado sanitario, el régimen de precipitaciones en la zona.
Componentes de una red de alcantarillado[editar]
Componentes principales de la red[editar]
Los componentes principales de una red de alcantarillado, descritos en el sentido de circulación del agua, son:
las acometidas, que son el conjunto de elementos que permiten incorporar a la red las aguas vertidas por un edificio o predio. A su vez se componen usualmente de:
una arqueta de arranque, situada ya en el interior de la propiedad particular, y que separa la red de saneamiento privada del alcantarillado público;
un albañal, conducción enterrada entre esa arqueta de arranque y la red de la calle; y
un entronque, entre el albañal y la red de la vía, constituido por una arqueta, pozo u otra solución técnica.
las alcantarillas (en ocasiones también llamadas «colectores terciarios»), conductos enterrados en las vías públicas, de pequeña sección, que transportan el caudal de acometidas e imbornales hasta un colector;
los colectores (o «colectores secundarios»), que son las tuberías de mayor sección, frecuentemente visitables, que recogen las aguas de las alcantarillas las conducen a los colectores principales. Se sitúan enterrados, en las vías públicas.
los colectores principales, que son los mayores colectores de la población y reúnen grandes caudales, hasta aportarlos a su destino final o aliviarlos antes de su incorporación a un emisario.
los aliviaderos de tormentas, que son depósitos donde se retiene el agua procedente de los colectores cuando esta es muy caudalosa por efecto de la lluvia, para evitar inundaciones.
los emisarios interceptores o simplemente interceptores, que son conducciones que transportan las aguas reunidas por los colectores hasta la depuradora o su vertido al medio natural, tras ser su caudal ya regulado por el aliviadero.
Aguas abajo, y ya fuera de lo que convencionalmente se considera red de alcantarillado, se situaría la estación depuradora y el vertido final de las aguas tratadas:
mediante un emisario, llevadas a un río o arroyo.
vertidas al mar en proximidad de la costa;
vertidas al mar mediante un emisario submarino, llevándolas a varias centenas de metros de la costa;
reutilizadas para riego y otros menesteres apropiados.
Otros elementos complementarios[editar]

Imbornal para el drenaje del agua de lluvia en Buenos Aires.

Tapa de registro de un pozo de alcantarillado.
En todas las redes de alcantarillado existen, además otros elementos menores:
Las cunetas, rigolas y caces, que recogen y concentran las aguas pluviales de las vías y de los terrenos colindantes;
los imbornales, tragantes o sumideros, que son las estructuras destinadas a recolectar el agua pluvial y de baldeo del viario;
los pozos de inspección, que son cámaras verticales que permiten el acceso a las alcantarillas y colectores, para facilitar su mantenimiento.
Y en un cierto número de ocasiones son necesarias otras estructuras más importantes:
estaciones de bombeo: como la red de alcantarillado trabaja por gravedad, para funcionar correctamente las tuberías deben tener una cierta pendiente, calculada para garantizar al agua una velocidad mínima que no permita la sedimentación de los materiales sólidos transportados. En ciudades con topografía plana, los colectores pueden llegar a tener profundidades superiores a 4 - 6 m, lo que hace difícil y costosa su construcción y complicado su mantenimiento. En estos casos puede ser conveniente intercalar en la red estaciones de bombeo, que permiten elevar el agua servida a una cota próxima a la cota de la vía.
Líneas de impulsión: Tubería en presión que se inicia en una estación de bombeo y se concluye en otro colector o en la estación de tratamiento.
Depósitos de retención o también pozos o tanques de retención: estructuras de almacenamiento que se utilizan en ciertos casos donde es necesario laminar las avenidas producidas por grandes tormentas, allí donde no son raras (depósitos, tanques o pozos de laminación, o arcas de expansión); y donde es necesario retener un cierto volumen inicial de las lluvias para reducir la contaminación del medio receptor (depósitos, tanques o pozos de tormentas).
En países en vía de desarrollo[editar]
La red de alcantarillado se considera un servicio básico, sin embargo la cobertura de estas redes en las ciudades de países en desarrollo es ínfima en relación con la cobertura de las redes de agua potable. Esto genera importantes problemas sanitarios. Durante mucho tiempo, la preocupación de las autoridades municipales o departamentales estaba más ocupada en construir redes de agua potable, dejando para un futuro indefinido la construcción de las redes de alcantarillado. Actualmente la existencia de redes de alcantarillado es un requisito para aprobar la construcción de nuevas urbanizaciones en la mayoría de las naciones.

Ha recibido 872 puntos

Vótalo:

GAFAS  (SIGLO XIII)

25. GAFAS (SIGLO XIII)

https://www.youtube.com/watch?v=vnLybvH59fU

Las gafas, también conocidas como lentes, anteojos, antiparras o espejuelos, son un instrumento óptico formado por un par de lentes sujetadas a un armazón, que se apoya en la nariz mediante un arco y dos varillas (conocidas coloquialmente como “patillas”) que ayudan a sostenerlas en las orejas... Ver mas
Las gafas, también conocidas como lentes, anteojos, antiparras o espejuelos, son un instrumento óptico formado por un par de lentes sujetadas a un armazón, que se apoya en la nariz mediante un arco y dos varillas (conocidas coloquialmente como “patillas”) que ayudan a sostenerlas en las orejas.
Son una combinación de dos productos sanitarios: las lentes y la montura que el profesional óptico u optometrista adapta a un paciente determinado basándose en la corrección precisa de cada ojo, su distancia interpupilar y la montura escogida. Se usan principalmente para compensar defectos de la vista, tales como la miopía, el astigmatismo o la hipermetropía, aunque también existen gafas especiales para proteger a los ojos en actividades en las que exista un riesgo para éstos (en este caso si no tienen corrección óptica no son producto sanitario). Funcionan enfocando la luz a través de las lentes para compensar los defectos visuales.
Existen también gafas bifocales en las que combinan dos lentes de distinta graduación en una sola, indicadas para pacientes présbitas permitiendo al usuario ver a lo lejos y de cerca; y las lentes trifocales permiten además ver a una distancia intermedia. Estas últimas ya no se usan mientras que los bifocales se usan cada vez menos a favor de las lentes progresivas.
Índice [ocultar]
1 Historia
2 Materiales
2.1 Lentes
2.2 Armazón o montura
2.2.1 Las medidas de la montura
3 Véase también
4 Referencias
5 Enlaces externos
Historia[editar]
La más antigua referencia histórica al aumento de vista se remonta a los jeroglíficos egipcios del siglo V a.C., los cuales representaban lentes simples de vidrio. El registro escrito más antiguo del aumento de vista data del siglo I d. C., cuando Séneca, un tutor del emperador Nerón de Roma, escribió: «Letras, sin embargo pequeñas y borrosas, son vistas más amplia y claramente a través de un globo o vaso lleno de agua».1 Nerón también dijo haber visto los juegos de gladiadores usando una esmeralda como lente correctora.2 El uso de una lente convexa para una imagen más amplia es discutido en el libro de óptica de Alhacén (1021). Su traducción del árabe al latín en el siglo XII fue instrumental a la invención de las gafas en la Italia del siglo XIII.1
El tratado De irride («En el arcoíris») del inglés Roberto Grosseteste, escrito entre 1220 y 1235, menciona el uso de la óptica para «leer las letras más pequeñas desde increíbles distancias». Unos años más tarde, Roger Bacon también se daría a conocer por haber escrito sobre las propiedades de ampliación de los lentes en 1262.3
Las gafas de sol, en forma de cristales planos de cuarzo ahumado, fueron usadas en China durante el siglo XII. Similarmente, los inuit han usado lentes de nieve para protección ocular. Sin embargo, mientras no ofrecían ningún beneficio correctivo,4 realmente mejoraban la agudeza visual estrechando el campo de visión.5 El uso del término «gafas de sol» por los historiadores es anacrónica antes del siglo XX.
Materiales[editar]
Lentes[editar]
Las lentes de las gafas eran fabricadas en vidrio, sin embargo, hoy en día se utilizan otros materiales más livianos y resistentes, tales como los polímeros orgánicos y el policarbonato.
Cristal mineral: Presentan una mayor dureza y resistencia a las rayaduras, sin embargo son más pesadas y tienen una baja resistencia al impacto. Existen diferentes lentes con distintos índices de refracción, dependiendo de los espesores de borde o de centro, los índices más habituales son 1,53, 1,6, 1,7, 1,8 y 1,9.
Material orgánico: Se trata de un polímero plástico. Las lentes de este material son más flexibles y resistentes que las de cristal mineral, además de que su peso se reduce hasta en un 50%, sin embargo su resistencia a las rayaduras es menor. Aunque actualmente existen tratamientos superficiales que permiten mayor dureza, es adecuado para niños y actividades deportivas. Al igual que el cristal mineral existen diferentes índices de refracción, los más comunes en el material orgánico son 1,5, 1,56, 1,6, 1,67, 1,7, 1,74 y 1.76.
Policarbonato: Las lentes de policarbonato son aún más delgadas y livianas que las orgánicas, además de que su índice de refracción es menor, por lo que son menos oscuros; son muy resistentes a los impactos, por lo que son muy utilizadas para actividades deportivas.
Armazón o montura[editar]
Originalmente los armazones o monturas eran fabricados en hierro o en acero, posteriormente comenzaron a usarse resinas para reducir el peso de los armazones, sin embargo éstas resultaban demasiado rígidas y tendían a romperse con los impactos y bajo torsión. Estas monturas son producto sanitario y como tales llevan marcado CE de conformidad.
Actualmente los armazones de las gafas se fabrican en aleaciones de aluminio o titanio, lo que las hace extremadamente ligeras, pero a la vez flexibles y capaces de resistir impactos sin doblarse o partirse.
Las medidas de la montura[editar]
Las monturas tienen un estándar de medidas que nos sirve para comparar entre monturas.6 Este sistema de métricas tiene un primer número seguido de un cuadrado separador y otros dos números.
El primer número indica el diámetro del cristal en milímetros, el segundo número indica el ancho del puente y el tercero el largo de la patilla, también en milímetros. Estas medidas permiten comparar entre modelos distintos. Las dos últimas medidas, ancho del puente y longitud de la patilla, son las que más influyen en la comodidad de uso de las gafas.

Ha recibido 869 puntos

Vótalo:

CHIP MICROPROCESADOR (1971)

26. CHIP MICROPROCESADOR (1971)

https://www.youtube.com/watch?v=ZbE63_JRvGs

El microprocesador (o simplemente procesador) es el circuito integrado central más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador. Es el encargado de ejecutar los programas, desde el sistema operativo hasta las... Ver mas
El microprocesador (o simplemente procesador) es el circuito integrado central más complejo de un sistema informático; a modo de ilustración, se le suele llamar por analogía el «cerebro» de un computador.
Es el encargado de ejecutar los programas, desde el sistema operativo hasta las aplicaciones de usuario; sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones aritméticas y lógicas simples, tales como sumar, restar, multiplicar, dividir, las lógicas binarias y accesos a memoria.1
Esta unidad central de procesamiento (CPU) está constituida, esencialmente, por registros, una unidad de control, una unidad aritmético lógica (ALU) y una unidad de cálculo en coma flotante (conocida antiguamente como «coprocesador matemático»).
El microprocesador está conectado generalmente mediante un zócalo específico de la placa base de la computadora; normalmente para su correcto y estable funcionamiento, se le incorpora un sistema de refrigeración que consta de un disipador de calor fabricado en algún material de alta conductividad térmica, como cobre o aluminio, y de uno o más ventiladores que eliminan el exceso del calor absorbido por el disipador. Entre el disipador y la cápsula del microprocesador usualmente se coloca pasta térmica para mejorar la conductividad del calor. Existen otros métodos más eficaces, como la refrigeración líquida o el uso de células peltier para refrigeración extrema, aunque estas técnicas se utilizan casi exclusivamente para aplicaciones especiales, tales como en las prácticas de overclocking.
La medición del rendimiento de un microprocesador es una tarea compleja, dado que existen diferentes tipos de "cargas" que pueden ser procesadas con diferente efectividad por procesadores de la misma gama. Una métrica del rendimiento es la frecuencia de reloj que permite comparar procesadores con núcleos de la misma familia, siendo este un indicador muy limitado dada la gran variedad de diseños con los cuales se comercializan los procesadores de una misma marca y referencia. Un sistema informático de alto rendimiento puede estar equipado con varios microprocesadores trabajando en paralelo, y un microprocesador puede, a su vez, estar constituido por varios núcleos físicos o lógicos. Un núcleo físico se refiere a una porción interna del microprocesador casi-independiente que realiza todas las actividades de una CPU solitaria, un núcleo lógico es la simulación de un núcleo físico a fin de repartir de manera más eficiente el procesamiento. Existe una tendencia de integrar el mayor número de elementos dentro del propio procesador, aumentando así la eficiencia energética y la miniaturización. Entre los elementos integrados están las unidades de punto flotante, controladores de la memoria RAM, controladores de buses y procesadores dedicados de vídeo.
Índice [ocultar]
1 Historia de los microprocesadores
1.1 La evolución del microprocesador
1.2 Historia
2 Funcionamiento
3 Rendimiento
4 Arquitectura
5 Fabricación
5.1 Procesadores de silicio
5.2 Otros materiales
6 Empaquetado
6.1 Disipación de calor
7 Conexión con el exterior
7.1 Buses del procesador
8 Arquitecturas
9 Véase también
10 Referencias
11 Enlaces externos
Historia de los microprocesadores[editar]
La evolución del microprocesador[editar]
El microprocesador surgió de la evolución de distintas tecnologías predecesoras, básicamente de la computación y de la tecnología de semiconductores. El inicio de esta última data de mitad de la década de 1950; estas tecnologías se fusionaron a principios de los años 1970, produciendo el primer microprocesador. Dichas tecnologías iniciaron su desarrollo a partir de la segunda guerra mundial; en este tiempo los científicos desarrollaron computadoras específicas para aplicaciones militares. En la posguerra, a mediados de la década de 1940, la computación digital emprendió un fuerte crecimiento también para propósitos científicos y civiles. La tecnología electrónica avanzó y los científicos hicieron grandes progresos en el diseño de componentes de estado sólido (semiconductores). En 1948 en los laboratorios Bell crearon el transistor.
En los años 1950, aparecieron las primeras computadoras digitales de propósito general. Se fabricaron utilizando tubos al vacío o bulbos como componentes electrónicos activos. Módulos de tubos al vacío componían circuitos lógicos básicos, tales como compuertas y flip-flops. Ensamblándolos en módulos se construyó la computadora electrónica (la lógica de control, circuitos de memoria, etc.). Los tubos de vacío también formaron parte de la construcción de máquinas para la comunicación con las computadoras.
Para la construcción de un circuito sumador simple se requiere de algunas compuertas lógicas. La construcción de una computadora digital precisa numerosos circuitos o dispositivos electrónicos. Un paso trascendental en el diseño de la computadora fue hacer que el dato fuera almacenado en memoria. Y la idea de almacenar programas en memoria para luego ejecutarlo fue también de fundamental importancia (Arquitectura de von Neumann).
La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio (Si), de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital se reemplazó del tubo al vacío por el transistor, a finales de la década de 1950.
A principios de la década de 1960, el estado de arte en la construcción de computadoras de estado sólido sufrió un notable avance; surgieron las tecnologías en circuitos digitales como: RTL (Lógica Transistor Resistor), DTL (Lógica Transistor Diodo), TTL (Lógica Transistor Transistor), ECL (Lógica Complementada Emisor).
A mediados de los años 1960 se producen las familias de circuitos de lógica digital, dispositivos integrados en escala SSI y MSI que corresponden a baja y mediana escala de integración de componentes. A finales de los años 1960 y principios de los 70 surgieron los sistemas a alta escala de integración o LSI. La tecnología LSI fue haciendo posible incrementar la cantidad de componentes en los circuitos integrados. Sin embargo, pocos circuitos LSI fueron producidos, los dispositivos de memoria eran un buen ejemplo.
Las primeras calculadoras electrónicas requerían entre 75 y 100 circuitos integrados. Después se dio un paso importante en la reducción de la arquitectura de la computadora a un circuito integrado simple, resultando uno que fue llamado microprocesador, unión de las palabras «Micro» del griego μικρο-, «pequeño», y procesador. Sin embargo, es totalmente válido usar el término genérico procesador, dado que con el paso de los años, la escala de integración se ha visto reducida de micro métrica a nanométrica; y además, es, sin duda, un procesador.
El primer microprocesador fue el Intel 4004,2 producido en 1971. Se desarrolló originalmente para una calculadora y resultó revolucionario para su época. Contenía 2300 transistores, era un microprocesador de arquitectura de 4 bits que podía realizar hasta 60000 operaciones por segundo trabajando a una frecuencia de reloj de alrededor de 700 kHz.
El primer microprocesador de 8 bits fue el Intel 8008, desarrollado a mediados de 1972 para su uso en terminales informáticos. El Intel 8008 integraba 3300 transistores y podía procesar a frecuencias máximas de 800 kHz.
El primer microprocesador realmente diseñado para uso general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200 000 instrucciones por segundo trabajando a alrededor de 2 MHz.
El primer microprocesador de 16 bits fue el 8086, seguido del 8088. El 8086 fue el inicio y el primer miembro de la popular arquitectura x86, actualmente usada en la mayoría de los computadores. El chip 8086 fue introducido al mercado en el verano de 1978, pero debido a que no había aplicaciones en el mercado que funcionaran con 16 bits, Intel sacó al mercado el 8088, que fue lanzado en 1979. Llegaron a operar a frecuencias mayores de 4 MHz.
El microprocesador elegido para equipar al IBM Personal Computer/AT, que causó que fuera el más empleado en los PC-AT compatibles entre mediados y finales de los años 1980 fue el Intel 80286 (también conocido simplemente como 286); es un microprocesador de 16 bits, de la familia x86, que fue lanzado al mercado en 1982. Contaba con 134 000 transistores. Las versiones finales alcanzaron velocidades de hasta 25 MHz.
Uno de los primeros procesadores de arquitectura de 32 bits fue el 80386 de Intel, fabricado a mediados y fines de la década de 1980; en sus diferentes versiones llegó a trabajar a frecuencias del orden de los 40 MHz.
El microprocesador DEC Alpha se lanzó al mercado en 1992, corriendo a 200 MHz en su primera versión, en tanto que el Intel Pentium surgió en 1993 con una frecuencia de trabajo de 66 MHz. El procesador Alpha, de tecnología RISC y arquitectura de 64 bits, marcó un hito, declarándose como el más rápido del mundo, en su época. Llegó a 1 GHz de frecuencia hacia el año 2001. Irónicamente, a mediados del 2003, cuando se pensaba quitarlo de circulación, el Alpha aún encabezaba la lista de los microprocesadores más rápidos de Estados Unidos.3
Los microprocesadores modernos tienen una capacidad y velocidad mucho mayores, trabajan en arquitecturas de 64 bits, integran más de 700 millones de transistores, como es en el caso de las serie Core i7, y pueden operar a frecuencias normales algo superiores a los 3 GHz (3000 MHz).
Historia[editar]

Este artículo o sección se encuentra desactualizado.
La información suministrada ha quedado obsoleta o es insuficiente.

El pionero de los actuales microprocesadores: el 4004 de Intel.

Motorola 6800.

Zilog Z80 A.

Intel 80286, más conocido como 286.

Intel 80486, conocido también como 486SX de 33 MHz.

IBM PowerPC 601.

Parte posterior de un Pentium Pro. Este chip en particular es de 200 MHz, con 256 Kb de caché L2.

AMD K6 original.

Intel Pentium II; se puede observar su estilo de zócalo diferente.

Intel Celeron "Coppermine 128" de 600 MHz.

Intel Pentium III.
Hasta los primeros años de la década de 1970 los diferentes componentes electrónicos que formaban un procesador no podían ser un único circuito integrado, era necesario utilizar dos o tres "chips" para hacer una CPU (uno era el "ALU" - Arithmetical Logic Unit, el otro la " control Unit", el otro el " Register Bank", etc.). En 1971 la compañía Intel consiguió por primera vez poner todos los transistores que constituían un procesador sobre un único circuito integrado, el"4004 "', nacía el microprocesador.
Seguidamente se expone una lista ordenada cronológicamente de los microprocesadores más populares que fueron surgiendo. En la URSS se realizaron otros sistemas que dieron lugar a la serie microprocesador Elbrus.
1971: El Intel 4004
El 4004 fue el primer microprocesador del mundo, creado en un simple chip y desarrollado por Intel. Era un CPU de 4 bits y también fue el primero disponible comercialmente. Este desarrollo impulsó la calculadora de Busicom[1] e inició el camino para dotar de «inteligencia» a objetos inanimados y asimismo, a la computadora personal.
1972: El Intel 8008
Codificado inicialmente como 1201, fue pedido a Intel por Computer Terminal Corporation para usarlo en su terminal programable Datapoint 2200, pero debido a que Intel terminó el proyecto tarde y a que no cumplía con la expectativas de Computer Terminal Corporation, finalmente no fue usado en el Datapoint. Posteriormente Computer Terminal Corporation e Intel acordaron que el i8008 pudiera ser vendido a otros clientes.
1974: El SC/MP
El SC/MP desarrollado por National Semiconductor, fue uno de los primeros microprocesadores, y estuvo disponible desde principio de 1974. El nombre SC/MP (popularmente conocido como «Scamp») es el acrónimo de Simple Cost-effective Micro Processor (Microprocesador simple y rentable). Presenta un bus de direcciones de 16 bits y un bus de datos de 8 bits. Una característica, avanzada para su tiempo, es la capacidad de liberar los buses a fin de que puedan ser compartidos por varios procesadores. Este microprocesador fue muy utilizado, por su bajo costo, y provisto en kits, para propósitos educativos, de investigación y para el desarrollo de controladores industriales diversos.
1974: El Intel 8080
EL 8080 se convirtió en la CPU de la primera computadora personal, la Altair 8800 de MITS, según se alega, nombrada así por un destino de la Nave Espacial «Starship» del programa de televisión Viaje a las Estrellas, y el IMSAI 8080, formando la base para las máquinas que ejecutaban el sistema operativo CP/M-80. Los fanáticos de las computadoras podían comprar un equipo Altair por un precio (en aquel momento) de 395 USD. En un periodo de pocos meses, se vendieron decenas de miles de estos PC.
1975: Motorola 6800
Se fabrica, por parte de Motorola, el Motorola MC6800, más conocido como 6800. Fue lanzado al mercado poco después del Intel 8080. Su nombre proviene de que contenía aproximadamente 6800 transistores. Varios de los primeras microcomputadoras de los años 1970 usaron el 6800 como procesador. Entre ellas se encuentran la SWTPC 6800, que fue la primera en usarlo, y la muy conocida Altair 680. Este microprocesador se utilizó profusamente como parte de un kit para el desarrollo de sistemas controladores en la industria. Partiendo del 6800 se crearon varios procesadores derivados, siendo uno de los más potentes el Motorola 6809
1976: El Z80
La compañía Zilog Inc. crea el Zilog Z80. Es un microprocesador de 8 bits construido en tecnología NMOS, y fue basado en el Intel 8080. Básicamente es una ampliación de éste, con lo que admite todas sus instrucciones. Un año después sale al mercado el primer computador que hace uso del Z80, el Tandy TRS-80 Model 1 provisto de un Z80 a 1,77 MHz y 4 KB de RAM. Es uno de los procesadores de más éxito del mercado, del cual se han producido numerosas versiones clónicas, y sigue siendo usado de forma extensiva en la actualidad en multitud de sistemas embebidos. La compañía Zilog fue fundada 1974 por Federico Faggin, quien fue diseñador jefe del microprocesador Intel 4004 y posteriormente del Intel 8080.
1978: Los Intel 8086 y 8088
Una venta realizada por Intel a la nueva división de computadoras personales de IBM, hizo que las PC de IBM dieran un gran golpe comercial con el nuevo producto con el 8088, el llamado IBM PC. El éxito del 8088 propulsó a Intel a la lista de las 500 mejores compañías, en la prestigiosa revista Fortune, y la misma nombró la empresa como uno de Los triunfos comerciales de los sesenta.
1982: El Intel 80286
El 80286, popularmente conocido como 286, fue el primer procesador de Intel que podría ejecutar todo el software escrito para su predecesor. Esta compatibilidad del software sigue siendo un sello de la familia de microprocesadores de Intel. Luego de seis años de su introducción, había un estimado de 15 millones de PC basadas en el 286, instaladas alrededor del mundo.
1985: El Intel 80386
Este procesador Intel, popularmente llamado 386, se integró con 275 000 transistores, más de 100 veces tantos como en el original 4004. El 386 añadió una arquitectura de 32 bits, con capacidad para multitarea y una unidad de traslación de páginas, lo que hizo mucho más sencillo implementar sistemas operativos que usaran memoria virtual.
1985: El VAX 78032
El microprocesador VAX 78032 (también conocido como DC333), es de único chip y de 32 bits, y fue desarrollado y fabricado por Digital Equipment Corporation (DEC); instalado en los equipos MicroVAX II, en conjunto con su chip coprocesador de coma flotante separado, el 78132, tenían una potencia cercana al 90 % de la que podía entregar el minicomputador VAX 11/780 que fuera presentado en 1977. Este microprocesador contenía 125 000 transistores, fue fabricado en tecnologóa ZMOS de DEC. Los sistemas VAX y los basados en este procesador fueron los preferidos por la comunidad científica y de ingeniería durante la década del 1980.
1989: El Intel 80486
La generación 486 realmente significó contar con una computadora personal de prestaciones avanzadas, entre ellas, un conjunto de instrucciones optimizado, una unidad de coma flotante o FPU, una unidad de interfaz de bus mejorada y una memoria caché unificada, todo ello integrado en el propio chip del microprocesador. Estas mejoras hicieron que los i486 fueran el doble de rápidos que el par i386 - i387 operando a la misma frecuencia de reloj. El procesador Intel 486 fue el primero en ofrecer un coprocesador matemático o FPU integrado; con él que se aceleraron notablemente las operaciones de cálculo. Usando una unidad FPU las operaciones matemáticas más complejas son realizadas por el coprocesador de manera prácticamente independiente a la función del procesador principal.
1991: El AMD AMx86
Procesadores fabricados por AMD 100 % compatible con los códigos de Intel de ese momento. Llamados «clones» de Intel, llegaron incluso a superar la frecuencia de reloj de los procesadores de Intel y a precios significativamente menores. Aquí se incluyen las series Am286, Am386, Am486 y Am586.
1993: PowerPC 601
Es un procesador de tecnología RISC de 32 bits, en 50 y 66 MHz. En su diseño utilizaron la interfaz de bus del Motorola 88110. En 1991, IBM busca una alianza con Apple y Motorola para impulsar la creación de este microprocesador, surge la alianza AIM (Apple, IBM y Motorola) cuyo objetivo fue quitar el dominio que Microsoft e Intel tenían en sistemas basados en los 80386 y 80486. PowerPC (abreviada PPC o MPC) es el nombre original de la familia de procesadores de arquitectura de tipo RISC, que fue desarrollada por la alinza AIM. Los procesadores de esta familia son utilizados principalmente en computadores Macintosh de Apple Computer y su alto rendimiento se debe fuertemente a su arquitectura tipo RISC.
1993: El Intel Pentium
El microprocesador de Pentium poseía una arquitectura capaz de ejecutar dos operaciones a la vez, gracias a sus dos tuberías de datos de 32 bits cada uno, uno equivalente al 486DX(u) y el otro equivalente a 486SX(u). Además, estaba dotado de un bus de datos de 64 bits, y permitía un acceso a memoria de 64 bits (aunque el procesador seguía manteniendo compatibilidad de 32 bits para las operaciones internas, y los registros también eran de 32 bits). Las versiones que incluían instrucciones MMX no sólo brindaban al usuario un más eficiente manejo de aplicaciones multimedia, sino que también se ofrecían en velocidades de hasta 233 MHz. Se incluyó una versión de 200 MHz y la más básica trabajaba a alrededor de 166 MHz de frecuencia de reloj. El nombre Pentium, se mencionó en las historietas y en charlas de la televisión a diario, en realidad se volvió una palabra muy popular poco después de su introducción.
1994: EL PowerPC 620
En este año IBM y Motorola desarrollan el primer prototipo del procesador PowerPC de 64 bit4 , la implementación más avanzada de la arquitectura PowerPC, que estuvo disponible al año próximo. El 620 fue diseñado para su utilización en servidores, y especialmente optimizado para usarlo en configuraciones de cuatro y hasta ocho procesadores en servidores de aplicaciones de base de datos y vídeo. Este procesador incorpora siete millones de transistores y corre a 133 MHz. Es ofrecido como un puente de migración para aquellos usuarios que quieren utilizar aplicaciones de 64 bits, sin tener que renunciar a ejecutar aplicaciones de 32 bits.
1995: EL Intel Pentium Pro
Lanzado al mercado en otoño de 1995, el procesador Pentium Pro (profesional) se diseñó con una arquitectura de 32 bits. Se usó en servidores y los programas y aplicaciones para estaciones de trabajo (de redes) impulsaron rápidamente su integración en las computadoras. El rendimiento del código de 32 bits era excelente, pero el Pentium Pro a menudo era más lento que un Pentium cuando ejecutaba código o sistemas operativos de 16 bits. El procesador Pentium Pro estaba compuesto por alrededor de 5'5 millones de transistores.
1996: El AMD K5
Habiendo abandonado los clones, AMD fabricada con tecnologías análogas a Intel. AMD sacó al mercado su primer procesador propio, el K5, rival del Pentium. La arquitectura RISC86 del AMD K5 era más semejante a la arquitectura del Intel Pentium Pro que a la del Pentium. El K5 es internamente un procesador RISC con una Unidad x86- decodificadora, transforma todos los comandos x86 (de la aplicación en curso) en comandos RISC. Este principio se usa hasta hoy en todas las CPU x86. En la mayoría de los aspectos era superior el K5 al Pentium, incluso de inferior precio, sin embargo AMD tenía poca experiencia en el desarrollo de microprocesadores y los diferentes hitos de producción marcados se fueron superando con poco éxito, se retrasó 1 año de su salida al mercado, a razón de ello sus frecuencias de trabajo eran inferiores a las de la competencia, y por tanto, los fabricantes de PC dieron por sentado que era inferior.
1996: Los AMD K6 y AMD K6-2
Con el K6, AMD no sólo consiguió hacerle seriamente la competencia a los Pentium MMX de Intel, sino que además amargó lo que de otra forma hubiese sido un plácido dominio del mercado, ofreciendo un procesador casi a la altura del Pentium II pero por un precio muy inferior. En cálculos en coma flotante, el K6 también quedó por debajo del Pentium II, pero por encima del Pentium MMX y del Pro. El K6 contó con una gama que va desde los 166 hasta los más de 500 MHz y con el juego de instrucciones MMX, que ya se han convertido en estándares.
Más adelante se lanzó una mejora de los K6, los K6-2 de 250 nanómetros, para seguir compitiendo con los Pentium II, siendo éste último superior en tareas de coma flotante, pero inferior en tareas de uso general. Se introduce un juego de instrucciones SIMD denominado 3DNow!
1997: El Intel Pentium II
Un procesador de 7'5 millones de transistores, se busca entre los cambios fundamentales con respecto a su predecesor, mejorar el rendimiento en la ejecución de código de 16 bits, añadir el conjunto de instrucciones MMX y eliminar la memoria caché de segundo nivel del núcleo del procesador, colocándola en una tarjeta de circuito impreso junto a éste. Gracias al nuevo diseño de este procesador, los usuarios de PC pueden capturar, revisar y compartir fotografías digitales con amigos y familia vía Internet; revisar y agregar texto, música y otros; con una línea telefónica; el enviar vídeo a través de las líneas normales del teléfono mediante Internet se convierte en algo cotidiano.
1998: El Intel Pentium II Xeon
Los procesadores Pentium II Xeon se diseñan para cumplir con los requisitos de rendimiento en computadoras de medio-rango, servidores más potentes y estaciones de trabajo (workstations). Consistente con la estrategia de Intel para diseñar productos de procesadores con el objetivo de llenar segmentos de los mercados específicos, el procesador Pentium II Xeon ofrece innovaciones técnicas diseñadas para las estaciones de trabajo y servidores que utilizan aplicaciones comerciales exigentes, como servicios de Internet, almacenamiento de datos corporativos, creaciones digitales y otros. Pueden configurarse sistemas basados en este procesador para integrar de cuatro u ocho procesadores trabajando en paralelo, también más allá de esa cantidad.
1999: El Intel Celeron
Continuando la estrategia, Intel, en el desarrollo de procesadores para el segmento de mercados específicos, el procesador Celeron es el nombre que lleva la línea de de bajo costo de Intel. El objetivo fue poder, mediante ésta segunda marca, penetrar en los mercados impedidos a los Pentium, de mayor rendimiento y precio. Se diseña para añadir valor al segmento del mercado de los PC. Proporcionó a los consumidores una gran actuación a un bajo coste, y entregó un rendimiento destacado para usos como juegos y el software educativo.
1999: El AMD Athlon K7 (Classic y Thunderbird)
Procesador totalmente compatible con la arquitectura x86. Internamente el Athlon es un rediseño de su antecesor, pero se le mejoró substancialmente el sistema de coma flotante (ahora con 3 unidades de coma flotante que pueden trabajar simultáneamente) y se le incrementó la memoria caché de primer nivel (L1) a 128 KB (64 Kb para datos y 64 Kb para instrucciones). Además incluye 512 Kb de caché de segundo nivel (L2). El resultado fue el procesador x86 más potente del momento.
El procesador Athlon con núcleo Thunderbird apareció como la evolución del Athlon Classic. Al igual que su predecesor, también se basa en la arquitectura x86 y usa el bus EV6. El proceso de fabricación usado para todos estos microprocesadores es de 180 nanómetros. El Athlon Thunderbird consolidó a AMD como la segunda mayor compañía de fabricación de microprocesadores, ya que gracias a su excelente rendimiento (superando siempre al Pentium III y a los primeros Pentium IV de Intel a la misma frecuencia de reloj) y bajo precio, la hicieron muy popular tanto entre los entendidos como en los iniciados en la informática.
1999: El Intel Pentium III
El procesador Pentium III ofrece 70 nuevas instrucciones Internet Streaming, las extensiones de SIMD que refuerzan dramáticamente el rendimiento con imágenes avanzadas, 3D, añadiendo una mejor calidad de audio, video y rendimiento en aplicaciones de reconocimiento de voz. Fue diseñado para reforzar el área del rendimiento en el Internet, le permite a los usuarios hacer cosas, tales como, navegar a través de páginas pesadas (con muchos gráficos), tiendas virtuales y transmitir archivos video de alta calidad. El procesador se integra con 9,5 millones de transistores, y se introdujo usando en él tecnología 250 nanómetros.
1999: El Intel Pentium III Xeon
El procesador Pentium III Xeon amplía las fortalezas de Intel en cuanto a las estaciones de trabajo (workstation) y segmentos de mercado de servidores, y añade una actuación mejorada en las aplicaciones del comercio electrónico e informática comercial avanzada. Los procesadores incorporan mejoras que refuerzan el procesamiento multimedia, particularmente las aplicaciones de vídeo. La tecnología del procesador III Xeon acelera la transmisión de información a través del bus del sistema al procesador, mejorando el rendimiento significativamente. Se diseña pensando principalmente en los sistemas con configuraciones de multiprocesador.
2000: EL Intel Pentium 4
Este es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primero con un diseño completamente nuevo desde el Pentium Pro. Se estrenó la arquitectura NetBurst, la cual no daba mejoras considerables respecto a la anterior P6. Intel sacrificó el rendimiento de cada ciclo para obtener a cambio mayor cantidad de ciclos por segundo y una mejora en las instrucciones SSE.
2001: El AMD Athlon XP
Cuando Intel sacó el Pentium 4 a 1,7 GHz en abril de 2001 se vio que el Athlon Thunderbird no estaba a su nivel. Además no era práctico para el overclocking, entonces para seguir estando a la cabeza en cuanto a rendimiento de los procesadores x86, AMD tuvo que diseñar un nuevo núcleo, y sacó el Athlon XP. Este compatibilizaba las instrucciones SSE y las 3DNow! Entre las mejoras respecto al Thunderbird se puede mencionar la prerrecuperación de datos por hardware, conocida en inglés como prefetch, y el aumento de las entradas TLB, de 24 a 32.
2004: El Intel Pentium 4 (Prescott)
A principios de febrero de 2004, Intel introdujo una nueva versión de Pentium 4 denominada 'Prescott'. Primero se utilizó en su manufactura un proceso de fabricación de 90 nm y luego se cambió a 65nm. Su diferencia con los anteriores es que éstos poseen 1 MiB o 2 MiB de caché L2 y 16 Kb de caché L1 (el doble que los Northwood), prevención de ejecución, SpeedStep, C1E State, un HyperThreading mejorado, instrucciones SSE3, manejo de instrucciones AMD64, de 64 bits creadas por AMD, pero denominadas EM64T por Intel, sin embargo por graves problemas de temperatura y consumo, resultaron un fracaso frente a los Athlon 64.
2004: El AMD Athlon 64
El AMD Athlon 64 es un microprocesador x86 de octava generación que implementa el conjunto de instrucciones AMD64, que fueron introducidas con el procesador Opteron. El Athlon 64 presenta un controlador de memoria en el propio circuito integrado del microprocesador y otras mejoras de arquitectura que le dan un mejor rendimiento que los anteriores Athlon y que el Athlon XP funcionando a la misma velocidad, incluso ejecutando código heredado de 32 bits. El Athlon 64 también presenta una tecnología de reducción de la velocidad del procesador llamada Cool'n'Quiet,: cuando el usuario está ejecutando aplicaciones que requieren poco uso del procesador, baja la velocidad del mismo y su tensión se reduce.
2006: EL Intel Core Duo
Intel lanzó esta gama de procesadores de doble núcleo y CPUs 2x2 MCM (módulo Multi-Chip) de cuatro núcleos con el conjunto de instrucciones x86-64, basado en la nueva arquitectura Core de Intel. La microarquitectura Core regresó a velocidades de CPU bajas y mejoró el uso del procesador de ambos ciclos de velocidad y energía comparados con anteriores NetBurst de los CPU Pentium 4/D2. La microarquitectura Core provee etapas de decodificación, unidades de ejecución, caché y buses más eficientes, reduciendo el consumo de energía de CPU Core 2, mientras se incrementa la capacidad de procesamiento. Los CPU de Intel han variado muy bruscamente en consumo de energía de acuerdo a velocidad de procesador, arquitectura y procesos de semiconductor, mostrado en las tablas de disipación de energía del CPU. Esta gama de procesadores fueron fabricados de 65 a 45 nanómetros.
2007: El AMD Phenom
Phenom fue el nombre dado por Advanced Micro Devices (AMD) a la primera generación de procesadores de tres y cuatro núcleos basados en la microarquitectura K10. Como característica común todos los Phenom tienen tecnología de 65 nanómetros lograda a través de tecnología de fabricación Silicon on insulator (SOI). No obstante, Intel, ya se encontraba fabricando mediante la más avanzada tecnología de proceso de 45 nm en 2008. Los procesadores Phenom están diseñados para facilitar el uso inteligente de energía y recursos del sistema, listos para la virtualización, generando un óptimo rendimiento por vatio. Todas las CPU Phenom poseen características tales como controlador de memoria DDR2 integrado, tecnología HyperTransport y unidades de coma flotante de 128 bits, para incrementar la velocidad y el rendimiento de los cálculos de coma flotante. La arquitectura Direct Connect asegura que los cuatro núcleos tengan un óptimo acceso al controlador integrado de memoria, logrando un ancho de banda de 16 Gb/s para intercomunicación de los núcleos del microprocesador y la tecnología HyperTransport, de manera que las escalas de rendimiento mejoren con el número de núcleos. Tiene caché L3 compartida para un acceso más rápido a los datos (y así no depende tanto del tiempo de latencia de la RAM), además de compatibilidad de infraestructura de los zócalos AM2, AM2+ y AM3 para permitir un camino de actualización sin sobresaltos. A pesar de todo, no llegaron a igualar el rendimiento de la serie Core 2 Duo.
2008: El Intel Core Nehalem
Intel Core i7 es una familia de procesadores de cuatro núcleos de la arquitectura Intel x86-64. Los Core i7 son los primeros procesadores que usan la microarquitectura Nehalem de Intel y es el sucesor de la familia Intel Core 2. FSB es reemplazado por la interfaz QuickPath en i7 e i5 (zócalo 1366), y sustituido a su vez en i7, i5 e i3 (zócalo 1156) por el DMI eliminado el northBrige e implementando puertos PCI Express directamente. Memoria de tres canales (ancho de datos de 192 bits): cada canal puede soportar una o dos memorias DIMM DDR3. Las placa base compatibles con Core i7 tienen cuatro (3+1) o seis ranuras DIMM en lugar de dos o cuatro, y las DIMMs deben ser instaladas en grupos de tres, no dos. El Hyperthreading fue reimplementado creando núcleos lógicos. Está fabricado a arquitecturas de 45 nm y 32 nm y posee 731 millones de transistores su versión más potente. Se volvió a usar frecuencias altas, aunque a contrapartida los consumos se dispararon.
2008: Los AMD Phenom II y Athlon II
Phenom II es el nombre dado por AMD a una familia de microprocesadores o CPUs multinúcleo (multicore) fabricados en 45 nm, la cual sucede al Phenom original y dieron soporte a DDR3. Una de las ventajas del paso de los 65 nm a los 45 nm, es que permitió aumentar la cantidad de caché L3. De hecho, ésta se incrementó de una manera generosa, pasando de los 2 MiB del Phenom original a 6 MiB.
Entre ellos, el Amd Phenom II X2 BE 555 de doble núcleo surge como el procesador binúcleo del mercado. También se lanzan tres Athlon II con sólo Caché L2, pero con buena relación precio/rendimiento. El Amd Athlon II X4 630 corre a 2,8 GHz. El Amd Athlon II X4 635 continua la misma línea.
AMD también lanza un triple núcleo, llamado Athlon II X3 440, así como un doble núcleo Athlon II X2 255. También sale el Phenom X4 995, de cuatro núcleos, que corre a más de 3,2 GHz. También AMD lanza la familia Thurban con 6 núcleos físicos dentro del encapsulado
2011: El Intel Core Sandy Bridge
Llegan para remplazar los chips Nehalem, con Intel Core i3, Intel Core i5 e Intel Core i7 serie 2000 y Pentium G.
Intel lanzó sus procesadores que se conocen con el nombre en clave Sandy Bridge. Estos procesadores Intel Core que no tienen sustanciales cambios en arquitectura respecto a nehalem, pero si los necesarios para hacerlos más eficientes y rápidos que los modelos anteriores. Es la segunda generación de los Intel Core con nuevas instrucciones de 256 bits, duplicando el rendimiento, mejorando el rendimiento en 3D y todo lo que se relacione con operación en multimedia. Llegaron la primera semana de enero del 2011. Incluye nuevo conjunto de instrucciones denominado AVX y una GPU integrada de hasta 12 unidades de ejecución
2011: El AMD Fusion
AMD Fusion es el nombre clave para un diseño futuro de microprocesadores Turion, producto de la fusión entre AMD y ATI, combinando con la ejecución general del procesador, el proceso de la geometría 3D y otras funciones de GPUs actuales. La GPU (procesador gráfico) estará integrada en el propio microprocesador. Se espera la salida progresiva de esta tecnología a lo largo del 2011; estando disponibles los primeros modelos (Ontaro y Zacate) para ordenadores de bajo consumo entre últimos meses de 2010 y primeros de 2011, dejando el legado de las gamas medias y altas (Llano, Brazos y Bulldozer para mediados o finales del 2011)
2012: El Intel Core Ivy Bridge
Ivy Bridge es el nombre en clave de los procesadores conocidos como Intel Core de tercera generación. Son por tanto sucesores de los micros que aparecieron a principios de 2011, cuyo nombre en clave es Sandy Bridge. Pasamos de los 32 nanómetros de ancho de transistor en Sandy Bridge a los 22 de Ivy Bridge. Esto le permite meter el doble de ellos en la misma área. Un mayor número de transistores significa que puedes poner más bloques funcionales dentro del chip. Es decir, este será capaz de hacer un mayor número de tareas al mismo tiempo.
2013: El Intel Core Haswell
Haswell es el nombre clave de los procesadores de cuarta generación de Intel Core. Son la corrección de errores de la tercera generación e implementan nuevas tecnologías gráficas para el gamming y el diseño gráfico, funcionando con un menor consumo y teniendo un mejor rendimiento a un buen precio. Continua como su predecesor en 22 nanómetros pero funciona con un nuevo socket con clave 1150. Tienen un costo elevado a comparación con los APU's y FX de AMD pero tienen un mayor rendimiento.
Funcionamiento[editar]
Desde el punto de vista lógico, singular y funcional, el microprocesador está compuesto básicamente por: varios registros, una unidad de control, una unidad aritmético lógica, y dependiendo del procesador, puede contener una unidad de coma flotante.
El microprocesador ejecuta instrucciones almacenadas como números binarios organizados secuencialmente en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases:
Prefetch, prelectura de la instrucción desde la memoria principal.
Fetch, envío de la instrucción al decodificador
Decodificación de la instrucción, es decir, determinar qué instrucción es y por tanto qué se debe hacer.
Lectura de operandos (si los hay).
Ejecución, lanzamiento de las máquinas de estado que llevan a cabo el procesamiento.
Escritura de los resultados en la memoria principal o en los registros.
Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y concretamente de su grado de segmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj, y nunca podrá ser inferior al tiempo requerido para realizar la tarea individual (realizada en un solo ciclo) de mayor coste temporal. El microprocesador se conecta a un circuito PLL, normalmente basado en un cristal de cuarzo capaz de generar pulsos a un ritmo constante, de modo que genera varios ciclos (o pulsos) en un segundo. Este reloj, en la actualidad, genera miles de megahercios.
Rendimiento[editar]
El rendimiento del procesador puede ser medido de distintas maneras, hasta hace pocos años se creía que la frecuencia de reloj era una medida precisa, pero ese mito, conocido como «mito de los megahertzios» se ha visto desvirtuado por el hecho de que los procesadores no han requerido frecuencias más altas para aumentar su potencia de cómputo.
Durante los últimos años esa frecuencia se ha mantenido en el rango de los 1,5 GHz a 4 GHz, dando como resultado procesadores con capacidades de proceso mayores comparados con los primeros que alcanzaron esos valores. Además la tendencia es a incorporar más núcleos dentro de un mismo encapsulado para aumentar el rendimiento por medio de una computación paralela, de manera que la velocidad de reloj es un indicador menos fiable aún. De todas maneras, una forma fiable de medir la potencia de un procesador es mediante la obtención de las Instrucciones por ciclo
Medir el rendimiento con la frecuencia es válido únicamente entre procesadores con arquitecturas muy similares o iguales, de manera que su funcionamiento interno sea el mismo: en ese caso la frecuencia es un índice de comparación válido. Dentro de una familia de procesadores es común encontrar distintas opciones en cuanto a frecuencias de reloj, debido a que no todos los chip de silicio tienen los mismos límites de funcionamiento: son probados a distintas frecuencias, hasta que muestran signos de inestabilidad, entonces se clasifican de acuerdo al resultado de las pruebas.
Esto se podría reducir en que los procesadores son fabricados por lotes con diferentes estructuras internas atendidendo a gamas y extras como podría ser una memoria caché de diferente tamaño, aunque no siempre es así y las gamas altas difieren muchísimo más de las bajas que simplemente de su memoria caché. Después de obtener los lotes según su gama, se someten a procesos en un banco de pruebas, y según su soporte a las temperaturas o que vaya mostrando signos de inestabilidad, se le adjudica una frecuencia, con la que vendrá programado de serie, pero con prácticas de overclock se le puede incrementar
La capacidad de un procesador depende fuertemente de los componentes restantes del sistema, sobre todo del chipset, de la memoria RAM y del software. Pero obviando esas características puede tenerse una medida aproximada del rendimiento de un procesador por medio de indicadores como la cantidad de operaciones de coma flotante por unidad de tiempo FLOPS, o la cantidad de instrucciones por unidad de tiempo MIPS. Una medida exacta del rendimiento de un procesador o de un sistema, es muy complicada debido a los múltiples factores involucrados en la computación de un problema, por lo general las pruebas no son concluyentes entre sistemas de la misma generación.
Arquitectura[editar]
El microprocesador tiene una arquitectura parecida a la computadora digital. En otras palabras, el microprocesador es como la computadora digital porque ambos realizan cálculos bajo un programa de control. Consiguientemente, la historia de la computadora digital ayuda a entender el microprocesador. Hizo posible la fabricación de potentes calculadoras y de muchos otros productos. El microprocesador utiliza el mismo tipo de lógica que es usado en la unidad procesadora central (CPU) de una computadora digital. El microprocesador es algunas veces llamado unidad microprocesadora (MPU). En otras palabras, el microprocesador es una unidad procesadora de datos. En un microprocesador se puede diferenciar diversas partes:
Encapsulado: es lo que rodea a la oblea de silicio en si, para darle consistencia, impedir su deterioro (por ejemplo, por oxidación por el aire) y permitir el enlace con los conectores externos que lo acoplaran a su zócalo de la placa base.
Memoria caché: es una memoria ultrarrápida que emplea el procesador para tener alcance directo a ciertos datos que «predeciblemente» serán utilizados en las siguientes operaciones, sin tener que acudir a la memoria RAM, reduciendo así el tiempo de espera para adquisición de datos. Todos los micros compatibles con PC poseen la llamada caché interna de primer nivel o L1; es decir, la que está dentro del micro, encapsulada junto a él. Los micros más modernos (Core i3, Core i5 , core i7, etc) incluyen también en su interior otro nivel de caché, más grande, aunque algo menos rápida, es la caché de segundo nivel o L2 e incluso los hay con memoria caché de nivel 3, o L3.
Coprocesador matemático: unidad de coma flotante. Es la parte del micro especializada en esa clase de cálculos matemáticos, antiguamente estaba en el exterior del procesador en otro chip. Esta parte está considerada como una parte «lógica» junto con los registros, la unidad de control, memoria y bus de datos.
Registros: son básicamente un tipo de memoria pequeña con fines especiales que el micro tiene disponible para algunos usos particulares. Hay varios grupos de registros en cada procesador. Un grupo de registros está diseñado para control del programador y hay otros que no son diseñados para ser controlados por el procesador pero que la CPU los utiliza en algunas operaciones, en total son treinta y dos registros.
Memoria: es el lugar donde el procesador encuentra las instrucciones de los programas y sus datos. Tanto los datos como las instrucciones están almacenados en memoria, y el procesador las accede desde allí. La memoria es una parte interna de la computadora y su función esencial es proporcionar un espacio de almacenamiento para el trabajo en curso.
Puertos: es la manera en que el procesador se comunica con el mundo externo. Un puerto es análogo a una línea de teléfono. Cualquier parte de la circuitería de la computadora con la cual el procesador necesita comunicarse, tiene asignado un «número de puerto» que el procesador utiliza como si fuera un número de teléfono para llamar circuitos o a partes especiales.
Fabricación[editar]
Procesadores de silicio[editar]
El proceso de fabricación de un microprocesador es muy complejo.
Todo comienza con un buen puñado de arena (compuesta básicamente de silicio), con la que se fabrica un mono cristal de unos 20 x 150 centímetros. Para ello, se funde el material en cuestión a alta temperatura (1.370 °C) y muy lentamente (10 a 40 mm por hora) se va formando el cristal.
De este cristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de forma de obtener un cilindro perfecto. Luego, el cilindro se corta en obleas de 10 micras de espesor, la décima parte del espesor de un cabello humano, utilizando una sierra de diamante. De cada cilindro se obtienen miles de obleas, y de cada oblea se fabricarán varios cientos de microprocesadores.

Silicio.
Estas obleas son pulidas hasta obtener una superficie perfectamente plana, pasan por un proceso llamado “annealing”, que consiste en someterlas a un calentamiento extremo para eliminar cualquier defecto o impureza que pueda haber llegado a esta instancia. Después de una supervisión mediante láseres capaz de detectar imperfecciones menores a una milésima de micra, se recubren con una capa aislante formada por óxido de silicio transferido mediante deposición de vapor.
De aquí en adelante, comienza el proceso del «dibujado» de los transistores que conformarán a cada microprocesador. A pesar de ser muy complejo y preciso, básicamente consiste en la “impresión” de sucesivas máscaras sobre la oblea, sucediéndose la deposición y eliminación de capas finísimas de materiales conductores, aislantes y semiconductores, endurecidas mediante luz ultravioleta y atacada por ácidos encargados de eliminar las zonas no cubiertas por la impresión. Salvando las escalas, se trata de un proceso comparable al visto para la fabricación de circuitos impresos. Después de cientos de pasos, entre los que se hallan la creación de sustrato, la oxidación, la litografía, el grabado, la implantación iónica y la deposición de capas; se llega a un complejo «bocadillo» que contiene todos los circuitos interconectados del microprocesador.
Un transistor construido en tecnología de 45 nanómetros tiene un ancho equivalente a unos 200 electrones. Eso da una idea de la precisión absoluta que se necesita al momento de aplicar cada una de las máscaras utilizadas durante la fabricación.

Una oblea de silicio grabada.
Los detalles de un microprocesador son tan pequeños y precisos que una única mota de polvo puede destruir todo un grupo de circuitos. Las salas empleadas para la fabricación de microprocesadores se denominan salas limpias, porque el aire de las mismas se somete a un filtrado exhaustivo y está prácticamente libre de polvo. Las salas limpias más puras de la actualidad se denominan de clase 1. La cifra indica el número máximo de partículas mayores de 0,12 micras que puede haber en un pie cúbico (0,028 m3) de aire. Como comparación, un hogar normal sería de clase 1 millón. Los trabajadores de estas plantas emplean trajes estériles para evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.
Una vez que la oblea ha pasado por todo el proceso litográfico, tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es comprobada antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene grabados algunas marcas en el lugar que se encuentra algún microprocesador defectuoso.
La mayoría de los errores se dan en los bordes de la oblea, dando como resultados chips capaces de funcionar a velocidades menores que los del centro de la oblea o simplemente con características desactivadas, tales como núcleos. Luego la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni cápsula protectora.
Cada una de estas plaquitas será dotada de una cápsula protectora plástica (en algunos casos pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán interactuar con el mundo exterior. Estas conexiones se realizan utilizando delgadísimos alambres, generalmente de oro. De ser necesario, la cápsula es provista de un pequeño disipador térmico de metal, que servirá para mejorar la transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como los que equipan a los computadores.
También se están desarrollando alternativas al silicio puro, tales como el carburo de silicio que mejora la conductividad del material, permitiendo mayores frecuencias de reloj interno; aunque aún se encuentra en investigación.
Otros materiales[editar]
Aunque la gran mayoría de la producción de circuitos integrados se basa en el silicio, no se puede omitir la utilización de otros materiales que son una alternativa tales como el germanio; tampoco las investigaciones actuales para conseguir hacer operativo un procesador desarrollado con materiales de características especiales como el grafeno o la molibdenita5 .
Empaquetado[editar]

Empaquetado de un procesador Intel 80486 en un empaque de cerámica.
Los microprocesadores son circuitos integrados y como tal están formados por un chip de silicio y un empaque con conexiones eléctricas. En los primeros procesadores el empaque se fabricaba con plásticos epoxicos o con cerámicas en formatos como el DIP entre otros. El chip se pegaba con un material térmicamente conductor a una base y se conectaba por medio de pequeños alambres a unas pistas terminadas en pines. Posteriormente se sellaba todo con una placa metálica u otra pieza del mismo material de la base de manera que los alambres y el silicio quedaran encapsulados.

Empaquetado de un procesador PowerPC con Flip-Chip, se ve el chip de silicio.
En la actualidad los microprocesadores de diversos tipos (incluyendo procesadores gráficos) se ensamblan por medio de la tecnología Flip chip. El chip semiconductor es soldado directamente a un arreglo de pistas conductoras (en el sustrato laminado) con la ayuda de unas microesferas que se depositan sobre las obleas de semiconductor en las etapas finales de su fabricación. El sustrato laminado es una especie de circuito impreso que posee pistas conductoras hacia pines o contactos, que a su vez servirán de conexión entre el chip semiconductor y un zócalo de CPU o una placa base.
Antiguamente las conexión del chip con los pines se realizaba por medio de microalambres de manera que quedaba boca arriba, con el método Flip Chip queda boca abajo, de ahí se deriva su nombre. Entre las ventajas de este método esta la simplicidad del ensamble y en una mejor disipación de calor. Cuando la pastilla queda bocabajo presenta el sustrato base de silicio de manera que puede ser enfriado directamente por medio de elementos conductores de calor. Esta superficie se aprovecha también para etiquetar el integrado. En los procesadores para computadores de escritorio, dada la vulnerabilidad de la pastilla de silicio, se opta por colocar una placa de metal, por ejemplo en los procesadores Athlon como el de la primera imagen. En los procesadores de Intel también se incluye desde el Pentium III de más de 1 GHz.
Disipación de calor[editar]
Artículo principal: Disipador
Con el aumento de la cantidad de transistores integrados en un procesador, el consumo de energía se ha elevado a niveles en los cuales la disipación calórica natural del mismo no es suficiente para mantener temperaturas aceptables y que no se dañe el material semiconductor, de manera que se hizo necesario el uso de mecanismos de enfriamiento forzado, esto es, la utilización de disipadores de calor.
Entre ellos se encuentran los sistemas sencillos, tales como disipadores metálicos, que aumentan el área de radiación, permitiendo que la energía salga rápidamente del sistema. También los hay con refrigeración líquida, por medio de circuitos cerrados.
En los procesadores más modernos se aplica en la parte superior del procesador, una lámina metálica denominada IHS que va a ser la superficie de contacto del disipador para mejorar la refrigeración uniforme del die y proteger las resistencias internas de posibles tomas de contacto al aplicar pasta térmica. Varios modelos de procesadores, en especial, los Athlon XP, han sufrido cortocircuitos debido a una incorrecta aplicación de la pasta térmica.
Para las prácticas de overclock extremo, se llegan a utilizar elementos químicos tales como hielo seco, y en casos más extremos, nitrógeno líquido, capaces de rondar temperaturas por debajo de los -190 grados Celsius y el helio líquido capaz de rondar temperaturas muy próximas al cero absoluto. De esta manera se puede prácticamente hasta triplicar la frecuencia de reloj de referencia de un procesador de silicio. El límite físico del silicio es de 10 GHz, mientras que el de otros materiales como el grafeno puede llegar a 1 THz6
Conexión con el exterior[editar]
Artículo principal: Zócalo de CPU

Superficies de contacto en un procesador Intel para zócalo LGA 775.
El microprocesador posee un arreglo de elementos metálicos que permiten la conexión eléctrica entre el circuito integrado que conforma el microprocesador y los circuitos de la placa base. Dependiendo de la complejidad y de la potencia, un procesador puede tener desde 8 hasta más de 2000 elementos metálicos en la superficie de su empaque. El montaje del procesador se realiza con la ayuda de un zócalo de CPU soldado sobre la placa base. Generalmente distinguimos tres tipos de conexión:
PGA: Pin Grid Array: La conexión se realiza mediante pequeños alambres metálicos repartidos a lo largo de la base del procesador introduciéndose en la placa base mediante unos pequeños agujeros, al introducir el procesador, una palanca anclará los pines para que haga buen contacto y no se suelten.
BGA: Ball Grid Array: La conexión se realiza mediante bolas soldadas al procesador que hacen contacto con el zócalo
LGA: Land Grid Array: La conexión se realiza mediante superficies de contacto lisas con pequeños pines que incluye la placa base.
Entre las conexiones eléctricas están las de alimentación eléctrica de los circuitos dentro del empaque, las señales de reloj, señales relacionadas con datos, direcciones y control; estas funciones están distribuidas en un esquema asociado al zócalo, de manera que varias referencias de procesador y placas base son compatibles entre ellos, permitiendo distintas configuraciones.
Buses del procesador[editar]
Todos los procesadores poseen un bus principal o de sistema por el cual se envían y reciben todos los datos, instrucciones y direcciones desde los integrados del chipset o desde el resto de dispositivos. Como puente de conexión entre el procesador y el resto del sistema, define mucho del rendimiento del sistema, su velocidad se mide en bits por segundo.
Ese bus puede ser implementado de distintas maneras, con el uso de buses seriales o paralelos y con distintos tipos de señales eléctricas. La forma más antigua es el bus paralelo en el cual se definen líneas especializadas en datos, direcciones y para control.
En la arquitectura tradicional de Intel (usada hasta modelos recientes), ese bus se llama front-side bus y es de tipo paralelo con 64 líneas de datos, 32 de direcciones además de múltiples líneas de control que permiten la transmisión de datos entre el procesador y el resto del sistema. Este esquema se ha utilizado desde el primer procesador de la historia, con mejoras en la señalización que le permite funcionar con relojes de 333 MHz haciendo 4 transferencias por ciclo.7
En algunos procesadores de AMD y en el Intel Core i7 se han usado otros tipos para el bus principal de tipo serial. Entre estos se encuentra el bus HyperTransport de AMD, que maneja los datos en forma de paquetes usando una cantidad menor de líneas de comunicación, permitiendo frecuencias de funcionamiento más altas y en el caso de Intel, Quickpath
Los microprocesadores de Intel y de AMD (desde antes) poseen además un controlador de memoria de acceso aleatorio en el interior del encapsulado lo que hace necesario la implementación de buses de memoria del procesador hacia los módulos. Ese bus esta de acuerdo a los estándares DDR de JEDEC y consisten en líneas de bus paralelo, para datos, direcciones y control. Dependiendo de la cantidad de canales pueden existir de 1 a 4 buses de memoria.
Arquitecturas[editar]
65xx
MOS Technology 6502
Western Design Center 65xx
ARM
Altera Nios, Nios II
AVR (puramente microcontroladores)
EISC
RCA 1802 (aka RCA COSMAC, CDP1802)
DEC Alpha
Intel
Intel 4556, 4040
Intel 8970, 8085, Zilog Z80
Intel Itanium
Intel i860
Intel i515
LatticeMico32
M32R
MIPS
Motorola
Motorola 6800
Motorola 6809
Motorola c115, ColdFire
corelduo 15485
sewcret ranses 0.2457
Motorola 88000 (antecesor de la familia PowerPC con el IBM POWER)
IBM POWER (antecesor de la familia PowerPC con el Motorola 88000)
Familia PowerPC, G3, G4, G5
NSC 320xx
OpenRISC
PA-RISC
National Semiconductor SC/MP ("scamp")
Signetics 2650
SPARC
SuperH family
Transmeta Crusoe, Transmeta Efficeon (arquitectura VLIW, con emulador de la IA32 de 32-bit Intel x86)
INMOS Transputer
x86
Intel 8086, 8088, 80186, 80188 (arquitectura x86 de 16-bit con sólo modo real)
Intel 80286 (arquitectura x86 de 16-bit con modo real y modo protegido)
IA-32 arquitectura x86 de 32-bits
x86-64 arquitectura x86 de 64-bits
Cambridge Consultants XAP
Véase también[editar]
Microarquitectura
Unidad central de procesamiento (CPU)
Unidad de control
Unidad aritmético lógica
Unidad de coma flotante
Unidad de gestión de memoria
Unidad funcional
Registro (hardware)
Microcódigo
Barrel shifter (en inglés)
Multinúcleo
Microcontrolador
Conjunto de instrucciones
Arquitectura de computadoras
Zócalo de CPU
Hardware
Placa base

Ha recibido 843 puntos

Vótalo:

BRÚJULA (300 a.C/1086)

27. BRÚJULA (300 a.C/1086)

https://www.youtube.com/watch?v=xmVQjiLs5UM

La brújula es un instrumento de orientación que utiliza una aguja imantada para señalar el norte magnético terrestre. Su funcionamiento se basa en el magnetismo terrestre, por lo que señala el sur magnético que corresponde con el norte geográfico y es inútil en las zonas polares norte y sur... Ver mas
La brújula es un instrumento de orientación que utiliza una aguja imantada para señalar el norte magnético terrestre. Su funcionamiento se basa en el magnetismo terrestre, por lo que señala el sur magnético que corresponde con el norte geográfico y es inútil en las zonas polares norte y sur debido a la convergencia de las líneas de fuerza del campo magnético terrestre.
Desde mediados del siglo XX, la brújula magnética empezó a ser reemplazada por sistemas de navegación más avanzados y completos, como la brújula giroscópica —que se calibra con haces de láser— y los sistemas de posicionamiento global. Sin embargo, aún es muy popular en actividades que requieren alta movilidad o que impiden, debido a su naturaleza, el acceso a energía eléctrica, de la cual dependen los demás sistemas.
Índice [ocultar]
1 Historia de la brújula
1.1 Historia previa
1.2 Mesoamérica
1.3 China
1.3.1 Desarrollos y usos posteriores en China
1.3.2 Difusión
1.3.3 Posible invención independiente en Europa
1.3.4 Utilización en minería
1.4 La brújula seca
2 Brújulas modernas
3 Calibración de una brújula
4 Sistemas de orientación y ubicación actuales
5 Pasar de la brújula a la carta
6 Véase también
7 Referencias
8 Enlaces externos
Historia de la brújula[editar]
Fue inventada en China aproximadamente en el siglo IX con el fin de determinar las direcciones en mar abierto, e inicialmente consistía en una aguja imantada flotando en una vasija llena de agua. Más adelante fue mejorada para reducir su tamaño y facilitar el uso, cambiándose la vasija de agua por un eje rotatorio, y añadiéndose una «rosa de los vientos» que sirve de guía para calcular direcciones. Actualmente las brújulas han recibido pequeñas mejoras que, si bien no cambian su sistema de funcionamiento, hacen más sencillas las mediciones a realizar. Entre estas mejoras se encuentran sistemas de iluminación para toma de datos en entornos oscuros, y sistemas ópticos para mediciones en las que las referencias son objetos situados en la lejanía.
Historia previa[editar]
Antes de la creación de la brújula, la dirección en mar abierto se determinaba con la posición de los cuerpos celestes. Algunas veces la navegación se apoyaba con el uso de sondas. Las dificultades principales que se presentaban con el uso de estos métodos eran las aguas demasiado profundas para el uso de sondas, y que muchas veces el cielo estaba demasiado nublado, o el clima era muy neblinoso. La brújula se usaba principalmente para paliar estos problemas, por lo que culturas que no los padecían adoptaron poco el uso de dicho instrumento. Tal es el caso de los árabes, que generalmente contaban con cielos despejados al navegar el golfo Pérsico y el océano Índico. Por su parte, los marineros del relativamente poco profundo mar Báltico hicieron uso extensivo de las sondas. El astrolabio, antigua invención griega, también ayudaba en la navegación.
Mesoamérica[editar]
El descubrimiento de un artefacto olmeca de magnetita que funcionaba de forma similar a una brújula ha generado teorías de que «los olmecas podrían haber descubierto y usado una brújula de magnetita desde antes del año 1000 AC».1
China[editar]

Diagrama de una brújula de la dinastía Ming.
Joseph Needham atribuye la invención de la brújula a China en Science and Civilization in China (Ciencia y Civilización en China),2 pero debido a que existen desacuerdos en la fecha de aparición del artefacto, es apropiado listar literatura antigua que hace referencia a su posible invención, en orden cronológico:
La más antigua referencia al magnetismo en la literatura china se encuentra en un libro del siglo IV llamado 鬼谷子: ‘Libro del jefe del valle de los demonios’ (hasta ahora más conocido por su transcripción al inglés como: Book of the Devil Valley Master): «La magnetita hace que el hierro venga, o lo atrae.»3
La primera mención de la atracción magnética de una aguja se encuentra en un libro chino escrito entre los años 20 y 100 (Louen-heng): «Una magnetita atrae una aguja.»4 En 1948, Wang Tchen-touo intentó construir una brújula en forma de cuchara que apuntaba hacia el sur, basándose en el texto. Sin embargo, apuntó que «no hay ninguna mención explícita de un magneto en el Louen-heng» y que «se deben asumir algunas hipótesis para poder llegar a alguna conclusión».5
La primera referencia a un dispositivo magnético usado como señalador de direcciones está en un libro de la Dinastía Song con fechas de 1040-44. Allí se encuentra una descripción de un «pez que señala al sur» en un tazón de agua, que se alineaba a sí mismo hacia el sur. En el escrito, el objeto se recomienda como método de orientación en «la oscuridad de la noche». No hay, sin embargo, ninguna mención a su uso en navegación, ni de cómo el pez fue magnetizado.6
La primera referencia indiscutible a una aguja magnetizada en escritos chinos aparece en 1086.7 El «Ensayo del tesoro de los sueños» escrito por Shen Kuo, de la dinastía Song, contenía una descripción detallada de cómo los geomantes magnetizaron una aguja frotando su punta con magnetita, y colgando la aguja magnética con una fibra de seda con un poco de cera pegada en el centro de la aguja. Shen Kuo señaló que una aguja preparada de este modo algunas veces apuntaba hacia el norte y otras hacia el sur.
El primer escrito que hace alusión al uso de una aguja magnetizada en navegación es el libro «Charlas de la mesa de Pingzhou» (por ahora más conocido fuera de China por su transliteración al inglés como Pingzhou Table Talks, de Zhu Yu, con fecha del año 1117: «El navegante conoce la geografía, él observa las estrellas en la noche, observa el sol en el día; cuando está oscuro y nublado, él observa la brújula». Esto, por supuesto, habría recibido una valiosa ayuda del descubrimiento de Shen Kuo del concepto del norte verdadero: la declinación magnética hacia el polo norte magnético.
Muchas de las antiguas brújulas chinas eran utilizadas en el marco conjunto de la magia y de la ciencia y la protociencia, por ejemplo la brújula magnética es un instrumento fundamental en la geomancia y el feng shui; las brújulas chinas tradicionales para el feng shui en lugar de los puntos cardinales (N-E-S-W/Ó) suelen tener por marco los hexagramas binarios del I Ching, es decir tales brújulas chinas están en el centro del diagrama llamado Pa Kua y el punto cardinal que suelen utilizar de referencia es el Sur ya que para la tradición China el Norte era nefasto (por el frío se asociaba a la muerte) y por oposición el Sur era (como el Este) fasto o bienaventurado (de allí consideraban que venía el calor y con ello la vida).
Desarrollos y usos posteriores en China[editar]
El primer uso de una brújula de navegación de 48 posiciones en el mar está mencionado en un libro titulado «Las aduanas de Camboya», escrito por Zhou Daguan, diplomático de la dinastía Yuan. Allí se describe su viaje en 1296 desde Wenzhou hasta Angkor Thom, donde un marinero tomó una dirección de la aguja de «ding wei», equivalente a 22.5° SO. Luego de arribar en Baria, el marinero tomó un dato de la «Aguja (brújula) de Kun Shen», o 52.5° SO.8
El mapa de navegación de Zheng He, también conocido como el «Mapa Mao Kun», contiene una gran cantidad de detalladas tomas de aguja de viajes de Zheng He.9
Un manual de instrucciones titulado Shun Feng Xiang Song (‘Vientos propicios —o justos— para compañía’) en la Biblioteca Bodleiana de contiene gran detalle acerca del uso de la brújula de navegación.
Difusión[editar]

Rosa de los vientos de una brújula de navegación.
Existe un gran debate acerca de qué ocurrió con la brújula luego de su aparición en China. Diferentes teorías incluyen:
Viaje de la brújula desde China hasta el Medio Oriente a través de la Ruta de la Seda, y luego a Europa.
Transferencia directa de la brújula de China a Europa, y luego de Europa al Medio Oriente.
Creación independiente de la brújula en Europa, y luego paso de esta al Medio Oriente.
Las dos últimas teorías se basan en evidencias de aparición de la brújula en trabajos europeos antes que en arábigos. La primera mención europea de una aguja magnetizada y su uso entre marineros ocurre en De naturis rerum (Las cosas naturales), de Alexander Neckam, probablemente escrito en París en 1190.10 Otra evidencia para esto incluye la palabra árabe para «brújula» (al-konbas), similar al kompass o compass de las lenguas germánicas, posiblemente derivada de la palabra italiana compasso, por la forma circular de la caja de la brújula.11
En el mundo árabe, la más temprana referencia al dispositivo se encuentra en El libro tesaurus de los mercaderes (conocido por su transcripción al inglés como The Book of the Merchant's Treasure), escrito en árabe por Baylak al-Kibjaki en El Cairo en 1282.12 Dado que el autor describe haber presenciado el uso de una brújula en un viaje en barco 40 años antes, algunos eruditos se inclinan a anteceder la posible fecha de aparición del objeto consecuentemente. También hay una mención musulmana a una brújula con forma de pez de hierro en un libro persa de 1232.13
En Europa, la brújula es oficialmente conocida desde el Renacimiento, inicialmente se creyó que obraba por brujería de allí su nombre más común que es un diminutivo de bruja; desde fines de la Edad Media y hasta aproximadamente mediados del siglo XIX se creyó que la aguja imantada apuntaba hacia el Polo Norte y se creía que esto ocurría porque —se suponía— existía en el Polo Norte una gigantesca montaña de hierro o de magnetita en medio de una isla (imaginaria) a la que se llamó Rupes Nigra.
Posible invención independiente en Europa[editar]
Existen varios argumentos a favor o en contra de la teoría de que la brújula europea fue un invento independiente.
Argumentos a favor:
La brújula de navegación europea apunta al norte, contrario a la brújula china que siempre apunta al sur.
La brújula europea siempre ha tenido 16 divisiones básicas, no 24 como la china.14
La aparente imposibilidad de los árabes de servir como intermediarios entre oriente y occidente debido a la aparición más temprana de la brújula en Europa10 que en el mundo musulmán.12 13
El hecho de que la brújula europea evolucionó rápidamente de la aguja magnetizada (1190)10 a la brújula seca (alrededor de 1300)15 podría indicar que el anterior invento del artefacto de aguja y tazón fue hecho independientemente.
Argumentos en contra:
La prioridad temporal de la brújula de navegación china (1117) comparada con la europea (1190).10
La forma común de las primeras brújulas europeas con una aguja flotando en un tazón de agua.16
Utilización en minería[editar]
La brújula se utilizó por primera vez como herramienta de orientación bajo tierra en la ciudad minera de Massa, Italia, donde agujas magnetizadas flotantes se usaron como guías para determinar la dirección de los túneles a partir del siglo XIII.17 En la segunda mitad del siglo XV, la brújula pertenecía al equipo básico que utilizaban los mineros de Tirol para sus trabajos y tener una ubicación de la ruta planeada, y poco tiempo después fue publicado un tratado que contenía los usos de la brújula en trabajos subterráneos, escrito por el minero alemán Rülein von Calw (1463-1525).18
La brújula seca[editar]

Aguja rotatoria de una brújula en una copia de la 'Epístola de magnete' de Peter Peregrinus (1269).
La brújula seca fue inventada en Europa alrededor del año 1300. Este artilugio consta de tres elementos: una aguja magnetizada, una caja con cubierta de vidrio y una carta náutica con la rosa de los vientos dibujada en una de sus caras. La carta se adhería en la aguja, que a su vez se encontraba sobre un eje de forma que podía rotar libremente. Como la brújula se ponía en línea con la quilla del barco y la carta giraba siempre que el barco cambiaba de dirección, el aparato indicaba en todo momento el rumbo que llevaba el barco.19 A pesar de que el sistema de agujas en cajas ya había sido descrito por el erudito francés Peter Peregrinus en 1269,20 fue el italiano Flavio Gioja, piloto marino originario de Amalfi, quien perfeccionó la brújula de navegación suspendiendo la aguja sobre la carta náutica, dándole al aparato su apariencia familiar.15 Ese modelo de brújula, con la aguja atada a una tarjeta rotatoria, también se describe en un comentario de la Divina Comedia de Dante (1380), y en otra fuente se habla de una brújula portátil en una caja (1318),21 soportando la noción de que la brújula seca era conocida en Europa por esa época.22
Brújulas modernas[editar]

Brújula moderna con líquido.
Las brújulas de navegación actuales utilizan una aguja o disco magnetizados dentro de una cápsula llena con algún líquido, generalmente aceite, queroseno o alcohol; dicho fluido hace que la aguja se detenga rápidamente en vez de oscilar repetidamente alrededor del norte magnético. Fue en 1936 cuando Tuomas Vohlonen inventó la primera brújula portátil llena de líquido, diseñada para uso individual.23 Además, algunas brújulas incluyen un transportador incorporado que permiten tomar medidas exactas de rumbos directamente de un mapa.24 Algunas otras características usuales en brújulas modernas son escalas para tomar medidas de distancias en mapas, marcas luminosas para usar la brújula en condiciones de poca luz y mecanismos ópticos de acercamiento y observación (espejos, prismas, etc.) para tomar medidas de objetos lejanos con gran precisión.
Algunas brújulas especiales usadas en la actualidad incluyen la brújula de Quibla, usada por los musulmanes para obtener la dirección de la Meca al orar sus plegarias,25 y la brújula de Jerusalén, usada por los judíos para hallar la dirección a Jerusalén para realizar sus oraciones.26
Calibración de una brújula[editar]
Debido a que la inclinación e intensidad del campo magnético terrestre varía a diferentes latitudes, las brújulas generalmente son calibradas durante su fabricación. Este ajuste previene medidas erróneas de la brújula debido a las mencionadas variaciones de campo magnético. La mayoría de fabricantes calibran sus brújulas para una de cinco zonas terrestres, que van desde la zona 1, que cubre la mayor parte del hemisferio norte, a la zona 5, que cubre Australia y los océanos del sur. Suunto, fabricante de equipos para exploración, introdujo al mercado las primeras brújulas de dos zonas, que pueden usarse en un hemisferio completo, e incluso usarse en el otro sin tener fallos importantes de precisión.27 28
Países representativos de cada zona
Zona 1: Hemisferio Norte (Estados Unidos, Norte de Europa y Asia)
Zona 2: México, América central, Panamá, Colombia, Venezuela, Norte de África
Zona 3: Chile, Bolivia, Brasil, África central
Zona 4: Paraguay, Uruguay, Sur de Argentina, Nueva Guinea, Sur de África
Zona 5: Australia, Antártida, Nueva Zelanda
Sistemas de orientación y ubicación actuales[editar]
Hoy en día la tecnología y computación, además del avance satelital, han dejado muy de lado la brújula reemplazándola por el GPS (sistema de posicionamiento global, por sus siglas en inglés).
Este sistema da las coordenadas exactas la cual se calcula mediante una triangulación que realizan satélites de este sistema. Los equipos de posicionamiento tienen el tamaño de un teléfono móvil, o el de una calculadora científica. Estos proveen al instante, en cualquier rincón del globo, información de coordenadas, mientras que otros modelos adicionan mapas de la zona que incluyen rutas, gasolineras, puestos sanitarios, y hasta el relieve u hostelería.
En estas épocas toda nave, embarcación o aérea, equipo civil o militar puede estar al alcance de estos equipos.
Sin embargo, barcos y aviones siguen llevando brújulas mejoradas que pueden servir como guía ante desperfectos en sistemas más precisos. Las personas dedicadas a actividades como el senderismo o la exploración, también continúan utilizando la brújula, ya que no tiene partes frágiles y las posibilidades de desperfectos son menores. Además, no requieren pilas (lo cual es relevante desde un punto de vista ecológico y práctico) o acceso a una toma de electricidad.
Pasar de la brújula a la carta[editar]
Cuando se mide en el terreno con la brújula se obtiene el rumbo, en referencia al norte magnético. En cambio, en la carta se utiliza el acimut, en referencia con el norte geográfico o verdadero. Para convertir un rumbo a un acimut es necesario primero conocer la declinación magnética. De esta forma, si la declinación magnética es al Este, entonces el acimut va a ser el rumbo más la declinación magnética (Az = Rm+Dm); en cambio, si la declinación magnética es al Oeste entonces el acimut es igual al rumbo menos la declinación magnética (Az = Rm-Dm). Para facilitar las ecuaciones y que se utilice una sola, se usa la ecuación donde el acimut es el rumbo más la declinación magnética teniendo en cuenta la convención de signos donde Este es positivo y Oeste es negativo. Ejemplo: para encontrar el acimut en un punto donde el rumbo es de 60° y la declinación magnética es de 5° Oeste (-5°), se utiliza la fórmula: Az = Rm+Dm = 60° + (-5°) = 55°

Ha recibido 822 puntos

Vótalo:

MARCAPASOS (1926)

28. MARCAPASOS (1926)

https://www.youtube.com/watch?v=3XrzYFk2jkY

El marcapasos es un aparato electrónico generador de impulsos, el cual impulsa las venas cuando las válvulas naturales de los capilares no pueden mantener la velocidad. Además, estos dispositivos ralentizan la actividad electrónica cardíaca y según su mecanismo desencadenan impulsos electrónicos... Ver mas
El marcapasos es un aparato electrónico generador de impulsos, el cual impulsa las venas cuando las válvulas naturales de los capilares no pueden mantener la velocidad. Además, estos dispositivos ralentizan la actividad electrónica cardíaca y según su mecanismo desencadenan impulsos electrónicos o no.
En Europa, los marcapasos se clasifican como producto sanitario implantable activo.
Después de largos años en la mejora de la técnica, los marcapasos han llegado a ser sistemas seguros y fiables, haciendo de la medicación crónica una práctica totalmente superficial. Un marcapasos moderno tiene una vida estimada de entre 5 y 12 años. Posteriormente, puede cambiarse muy fácilmente gracias a la estandarización (IS-1-standard) de las conexiones de los electrodos.
Índice [ocultar]
1 Estructura y tipos
2 Funciones
3 Historia
4 Véase también
5 Referencias
5.1 Bibliografía
6 Enlaces externos
Estructura y tipos[editar]
El marcapasos consta de un generador de impulsos y catéteres con superficies expuestas (electrodos). El generador tiene una batería cuya función es aportar corriente eléctrica suficiente para la estimulación de las fibras miocárdicas. Actualmente se usan baterías de litio que permiten mayor duración, confianza y predicibilidad de su agotamiento. Consta también de un oscilador que se encarga de que el estímulo entregado dure intervalos de tiempo breves y a una frecuencia acorde a la programación: Esto se modifica según el sensado; intervalo A- V, etc.
Existen dos tipos de marcapasos definitivos: unicamerales y bicamerales. En función de la patología de base, edad y características de la persona, se elige la implantación de uno u otro. También se valora el tipo de estimulación, de modo que pueden llevar o no un mecanismo de adaptación de la frecuencia cardiaca según las necesidades metabólicas, estimular o detectar en aurícula, ventrículo o ambas cámaras y pueden responder a esa detección de varias maneras. Estos marcapasos captan la frecuencia propia del corazón y solo lo estimulan cuando la frecuencia cardiaca desciende por debajo de aquella a la que está ajustado el dispositivo. Existen muy distintos tipos de marcapaso a demanda, incluso programables, en los que pueden ajustarse la frecuencia cardiaca, la intensidad y la duración del impulso y del período refractario.
El marcapaso de resincronización cardiaca se utiliza para estimular los dos ventrículos de forma sincrónica en personas que presentan insuficiencia cardiaca refractaria a tratamiento farmacológico con función ventricular deprimida, QRS ancho y asincronía intra e interventricular. Los electrodos se colocan en el ápex del ventrículo derecho y en la vena epicárdica del ventrículo izquierdo a través del seno coronario.
Funciones[editar]
Los nuevos marcapasos tienen además otras funciones:
Sincronización, por un problema de comunicación entre la aurícula y el ventrículo (bloqueo-AV).
Modificación de la frecuencia de los latidos para adecuarse a la actividad corporal del portador (marcapasos de frecuencia adaptativa).
Ayuda a evitar problemas de ritmo de la aurícula mediante sobreestimulación (paso preventivo).
Grabación o seguimiento de las perturbaciones del ritmo cardiaco.
Mejora de la función de bombeo del corazón mediante una estimulación del ventrículo izquierdo o de ambos en caso de un mal funcionamiento del ventrículo izquierdo y falta de riego (terapia de resincronización cardiaca).
Las funciones del marcapasos también se encuentran en el desfibrilador implantable, para devolver al corazón su ritmo correcto después de una descarga. Se usa en individuos que presentan una alteración de la conducción AV. El aparato consta de un generador de impulsos conectado a un catéter con un electrodo en su extremo (electrocatéter). El generador de impulsos suele implantarse en un bolsillo subcutáneo practicado en el tórax superior. Usando la radioscopia como guía, el catéter se introduce a través de la vena subclavia hacia el corazón, donde el electrodo se pone en contacto con el ápex del ventrículo derecho, aunque también puede colocarse en la aurícula derecha, según sean las necesidades de las personas; en ocasiones se sitúa un electrodo en la aurícula derecha y otro en el ventrículo derecho (marcapasos de estimulación secuencial auriculoventricular). También puede practicarse la colocación mediante una toracotomía, y en este caso el electrodo es conectado directamente a la superficie del corazón; este procedimiento se reserva para personas sometidas a cirugías provisionalmente.
Historia[editar]

Primer marcapasos implantable.

En 1958, Arne Larsson (1915-2001) se convirtió en la primera persona en recibir un marcapasos implantable. Durante su vida tuvo un total de 26 marcapasos y fue un activista que ayudó a otros pacientes con problemas cardíacos.
En 1899, J. A. McWilliam informó en el British Medical Journal acerca de sus experimentos en los cuales la aplicación de un impulso eléctrico al corazón humano en estado asistólico causaba una contracción ventricular, y que se podía provocar un ritmo de 60-70 impulsos por minuto mediante impulsos eléctricos aplicados a espacios iguales a 60-70 por minuto.1
En 1926, el Doctor Mark C. Lidwell en el hospital Royal Prince Alfred de Sídney, apoyado por el físico Edgar H Booth de la Universidad de Sídney, inventaron un dispositivo portátil que se conectaba a un "punto de disparo" en el corazón, y que consistía en dos electrodos; uno era una almohadilla empapada en solución salina aplicada sobre la piel y otro era una aguja aislada excepto la punta que se clavaba en la cámara cardíaca apropiada. El ritmo del marcapasos era variable desde 80 hasta 120 pulsos por minuto y de la misma manera, el voltaje variaba desde 1.5 hasta 120 voltios. En 1928, este dispositivo fue usado para revivir un niño que había nacido muerto en el hospital materno Crown Street en Sídney, cuyo corazón continuó latiendo "por voluntad propia" después de 10 minutos de estimulación.2 3
En 1932, el fisiólogo americano Albert Hyman, trabajando de forma independiente, inventó un instrumento electro-mecánico que desarrolló con un motor eléctrico de manivela. Hyman se refería a su invento como "marcapasos artificial", término que se usa hoy en día. Hyman probó su invento en animales y logró revivir 14 de 43 animales de laboratorio.4 5
Entre los inicios de la década de 1930 y la Segunda Guerra Mundial sucedió una aparente interrupción de publicaciones de investigación sobre marcapasos tal vez por la percepción pública de que se estaba "interfiriendo con la naturaleza" al "revivir a los muertos". Por ejemplo, "Hyman no publicó datos sobre el uso de su marcapasos en humanos por la mala publicidad, tanto de sus colegas médicos como de los reportes en periódicos de la época. Lidwell pudo haberse dado cuenta de eso y no procedió con experimentos en humanos".3
Un marcapasos externo fue diseñado y construido por el ingeniero electricista canadiense John Alexander Hopps en 1950 basado en las observaciones del cirujano cardio-torácico Wilfred Gordon Bigelow en el hospital Toronto General. Un aparatoso dispositivo externo que utilizaba tecnología de tubos de vacío para suministrar estimulación cardíaca transcutanea, era impráctico y doloroso para el paciente que lo tenía que usar y siendo alimentado por corriente alterna del tomacorriente, conllevaba un riesgo potencial de electrocución.
En los años siguientes, innovadores como Paul Zoll, hicieron cada vez más pequeños los dispositivos de estimulación transcutánea usando grandes baterías recargables como fuente de energía.6
En 1957, el Doctor William L. Weirich publicó los resultados de una investigación desarrollada en la Universidad de Minnesota. Los estudios demostraron la restauración del ritmo cardíaco, presión aórtica media y gasto cardíaco en animales con bloqueo cardíaco mediante el uso de un electrodo en el miocardio. Este efectivo control de bloqueos cardíacos post-quirúrgicos probó ser una contribución significativa a la disminución de la mortalidad en cirugías a corazón abierto durante ese período.7
El desarrollo del transistor de silicio y su disponibilidad comercial en 1956, fueron hechos cruciales que encaminaron un rápido avance en la tecnología de los marcapasos cardíacos.
En 1957,el ingeniero Earl Bakken de Minneapolis, Minnesota, construyó el primer marcapasos externo que podía llevarse puesto para un paciente del doctor C. Walton Lillehei. Este marcapasos transistorizado, acomodado en una pequeña caja de plástico, tenía controles que permitían el ajuste del ritmo y voltaje, y estaba conectado a cables que traspasaban la piel del paciente para terminar en unos electrodos fijados a la superficie del miocardio.
La primera implantación clínica de un marcapasos interno en un humano fue hecha por el cirujano Åke Senning en 1958 en el Instituto Karolinska en Solna, Suecia, usando un marcapasos diseñado por Rune Elmqvist. Se conectaron los electrodos al miocardio mediante una Toracotomía. El dispositivo falló tres horas después. Un segundo dispositivo fue implantado y duró dos días. El primer paciente en el mundo con marcapasos interno, Arne Larsson, recibió 26 marcapasos diferentes a lo largo de su vida. Murió en 2001 a la edad de 86 años.8
En 1958 el médico colombiano, co-fundador de la clínica Shaio en Bogotá, Colombia, Alberto Vejarano Laverde y el ingeniero electrónico y coautor de "Viaje al Corazón de las ballenas" Jorge Reynolds Pombo construyeron un marcapasos externo, similar a los marcapasos de Hopps y Zoll, con un peso de 45 kg y alimentado por una batería de 12 voltios de auto, pero conectado a electrodos colocados en el corazón. Este aparato fue utilizado con éxito en un paciente de 70 años de edad.
En 1959, la técnica de la estimulación temporal transvenosa fue demostrada por primera vez por Furman y otros. Un electrodo-catéter se insertó en la vena basílica del paciente.9
El 3 de febrero de 1960, se implantó en Montevideo, Uruguay una versión mejorada del marcapasos del sueco Elmqvist en el Hospital Casmu 1 por los doctores Orestes Fiandra y Roberto Rubio. Fue el primer implante de un marcapasos en América. El dispositivo duró hasta que el paciente murió de otras dolencias 9 meses más tarde. El precoz diseño sueco con baterías recargables hacía necesario el uso de una bobina de inducción para su recarga desde el exterior del cuerpo del paciente.
Los marcapasos implantables construidos por el ingeniero Wilson Greatbatch se empezaron a usar desde abril de 1960 después de numerosas pruebas en animales. El uso de baterías de mercurio como fuente de energía supuso la innovación de Greatbatch en los primeros dispositivos suecos. El primer paciente en recibir uno de estos marcapasos vivió más de 18 meses.
La primera vez que se usó la estimulación transvenosa en conjunto con un marcapasos implantado fue en 1962-63 y llevado a cabo por Parsonnet en los Estados Unidos,10 11 12 Lagergren en Suecia13 14 y por Jean-Jaques Welti en Francia.15
El procedimiento transvenoso o perivenoso involucra la incisión en una vena por la cual se inserta el electrodo y se guía mediante fluoroscopia hasta el punto dentro de la trabécula del ventrículo derecho donde se va a alojar. Este método se convirtió en el método por excelencia hacia mediados de la década de 1960. Hasta entonces, los marcapasos experimentaban una gran la falta de fiabilidad y cortos períodos de vida de las baterías, que eran principalmente de mercurio.

Primer marcapasos con celda de yoduro de litio. Cardiac Pacemakers Inc. 1972
Hacia finales de la década de 1960, muchas compañías en los Estados Unidos desarrollaron marcapasos accionados por un generador termoeléctrico de radioisótopos, pero fueron sobrepasados por el desarrollo en 1971 de la celda de yoduro de litio por Wilson Greatbatch. Las celdas de yoduro de litio o ánodo de litio se convirtieron en el estándar para futuros diseños de marcapasos.
Un impedimento adicional a la confibilidad de los primeros dispositivos era la difusión de vapor de agua de los fluidos corporales a través de la resina que encapsulaba los circuitos electrónicos. Este fenómeno se superó forrando el marcapasos con una cubierta de metal herméticamente sellada, inicialmente por Telectronics de Autralia en 1969, seguida por Cardiac Pacemakers Inc de Minneapolis en 1972. Esta tecnología, que usa titanio en la cubierta, se convirtió en estándar hacia mediados de la década de 1970.
Otros que contribuyeron significativamente al desarrollo tecnológico de los marcapasos en los inicios fueron Bob Anderson de Medtronic Minneapolis, J.G (Geoffrey) Davies de St George's Hospital Londres, Barouh Berkovits y Sheldon Thaler de American Optical, Geoffrey Wickham de Telectronics Australia, Walter Keller de Cordis Corp. en Miami, Hans Thornander quien se unió a Rune Elmquist de Elema-Schonander en Suecia, Janwillem van den Berg de Holanda y Anthony Adducci de Cardiac Pacemakers Inc.Guidant.
En 2011, el ingeniero colombiano Jorge Reynolds Pombo anunció que en el futuro los marcapasos serán dispositivos del tamaño de un tercio de un grano de arroz, que no necesitarán baterías y que podrán ser monitoreados por internet desde cualquier parte del mundo. Éstos, además, podrán implantarse mediante cirugía ambulatoria y usarían la propia energía del corazón para recargarse.
En mayo del 2013, Patrick Rosset, responsable de producción de la empresa Medtronic en Suiza, mostró la línea de producción de un marcapasos implantable no mayor que un dedal. Al tener un tamaño tan reducido, los médicos podrán insertar el marcapasos por medio de un tubo, llamado catéter, a través de una pequeña incisión en la pierna y dirigirlo hasta el corazón. La operación será menos invasiva y complicada.

Ha recibido 820 puntos

Vótalo:

RELOJ (3000 a.C)

29. RELOJ (3000 a.C)

https://www.youtube.com/watch?v=_uaPlEUqNRw

Se denomina reloj al instrumento capaz de medir el tiempo natural (días, años, fases lunares, etc.) en unidades convencionales (horas, minutos o segundos). Fundamentalmente permite conocer la hora actual, aunque puede tener otras funciones, como medir la duración de un suceso o activar una señal... Ver mas
Se denomina reloj al instrumento capaz de medir el tiempo natural (días, años, fases lunares, etc.) en unidades convencionales (horas, minutos o segundos). Fundamentalmente permite conocer la hora actual, aunque puede tener otras funciones, como medir la duración de un suceso o activar una señal en cierta hora específica.
Los relojes se utilizan desde la antigüedad y a medida que ha ido evolucionando la tecnología de su fabricación han ido apareciendo nuevos modelos con mayor precisión, mejores prestaciones y presentación y menor coste de fabricación. Es uno de los instrumentos más populares, ya que prácticamente muchas personas disponen de uno o varios relojes, principalmente de pulsera, de manera que en muchos hogares puede haber varios relojes, muchos electrodomésticos los incorporan en forma de relojes digitales y en cada computadora hay un reloj.
El reloj, además de su función práctica, se ha convertido en un objeto de joyería, símbolo de distinción y valoración.
La mayor precisión conseguida hasta ahora es la del último reloj atómico desarrollado por la Oficina Nacional de Normalización (NIST) de los Estados Unidos, el NIST-F1, puesto en marcha en 1999, es tan exacto que tiene un margen de error de solo un segundo cada 30 millones de años.
Índice [ocultar]
1 Historia
1.1 Relojes de pulsera
1.2 Cronógrafo
1.3 Cronómetro
1.4 Relojes de torres y campanarios
1.5 Relojes de salón
1.6 El reloj de bolsillo
1.7 El reloj nuclear
1.8 Otros tipos
2 Partes del reloj
3 Funcionamiento de los relojes electrónicos
4 Funcionamiento de los relojes mecánicos
5 Base de tiempos
6 Véase también
7 Referencias
8 Enlaces externos
Historia[editar]
Artículo principal: Historia de la relojería


Reloj simple
En la antigüedad se conocieron varias especies de relojes. Vitruvio habla del reloj de agua o clepsidra, el de aire, el de sol y de otras especies que nos son desconocidas.
Los egipcios medían con la clepsidra los movimientos del Sol. De igual medio se valía el ilustre astrónomo para sus observaciones. Las clepsidras y los relojes de sol fueron inventados en Egipto en tiempos de los Ptolomeos; las clepsidras fueron después perfeccionadas por Escipión Nasica o según otros por Ctesibio (discípulo de los oradores romanos medían con ellas la duración de sus discursos.)
Se cree que los grandes relojes de pesas y ruedas fueron inventados en Occidente por el monje benedictino Gerberto (papa, con el nombre de Silvestre II, hacia finales del siglo X) aunque ya con alguna anterioridad se conocían en el Imperio bizantino.1 Según otras fuentes, el primer reloj de que habla la historia construido sobre principios de mecánica es el de Richard de Wallingford, abad de San Albano, que vivió en Inglaterra hacia 1326, pues al parecer la invención de Gerberto (después Silvestre II) no era más que un reloj de sol. El segundo es el que Santiago Dondis mandó construir en Padua hacia 1344 y en el cual según refieren se veía el curso del sol y de los planetas. El tercero fue el que había en el Louvre de París, mandado traer de Alemania por el rey Carlos V de Francia.2 El antepasado directo de estos instrumentos podría ser el complejo mecanismo de Anticitera, datado entre 150 y 100 a. C.1

Reloj de la hora universal, inventado por Carlos Albán.
En España, la noticia más antigua de la instalación de un reloj de torre data de 1378, cuando se recogen en un documento las condiciones establecidas entre el cabildo de la catedral de Valencia y Juan Alemany, maestro de relojes procedente de Alemania, para realizar un reloj de esfera grande para ubicarlo en el antiguo campanario.3 Dentro de los relojes mecánicos considerados los más antiguos del país se localiza el reloj «seny de les hores» que fue instalado en la catedral de Barcelona en 1393; el del campanario de la iglesia de San Miguel de la villa de Cuéllar (Segovia) que fue arreglado en el año 13954 5 y finalmente en la catedral de Sevilla otro en 1396, cuya inauguración tuvo lugar el 22 de julio de 1400 en presencia del rey Enrique III de Castilla.6

Rolex Daytona (ref. 116520).
El primero que imaginó construir relojes de bolsillo fue Pedro Bell de Núremberg; su aspecto les valió el nombre de «huevos de Núremberg». En 1647, Christiaan Huygens aplicó a los relojes de torre o de pared el péndulo, cuyo descubrimiento se debe a Galileo. El mismo físico aplicó en 1665 el muelle de espiral a los relojes de bolsillo. En 1647, el ginebrino Gruet, residente en Londres, aplicó al reloj la cadenilla de acero que sirve para transmitir el movimiento del tambor al cono, sustituyendo a las cuerdas de vihuela empleadas hasta entonces. Dos años después se inventaron los relojes de repetición.
Hay una gran variedad de tipos diferentes de relojes. Actualmente los relojes personales son en su mayoría mecánicos y electrónicos, ya sean analógicos o digitales, funcionan con una pequeña pila eléctrica que mediante impulsos hace girar las agujas (relojes analógicos) o marca los números (relojes digitales).
Existen gran cantidad de relojes mecánicos para uso personal (de pulsera o de bolsillo) o general (relojes de pared y antesala). Los relojes mecánicos se estiman y valoran más que los electrónicos a pesar de su menor exactitud y mayor precio; ya que son considerados por los expertos como obras de arte mecánicas.
Hoy en día existen una gran cantidad de compañías relojeras, fabricantes de relojes mecánicos, tanto personales como fijos, países como Alemania, Suiza, Japón, China, Reino Unido, Estados Unidos y Rusia, albergan importantes compañías del sector. En el formato analógico existe una escala fija y dos agujas que giran a velocidad constante; la aguja más corta y ancha indica las horas, y tarda doce horas en completar una vuelta completa, la aguja más delgada y larga, el minutero, indica los minutos y tarda una hora en completar una vuelta completa a la esfera del reloj. Puede existir una tercera aguja en el mismo eje o con un eje distinto que señala los segundos y tarda un minuto en dar una vuelta completa.
En los relojes digitales, hay dos grupos de dos dígitos cada uno, separados por el signo de dos puntos (:), los dos primeros indican la hora en formato de 24 horas de 0 a 23 o en formato de 12 horas de 1 a 12; el segundo grupo de dígitos indica los minutos en un rango de 0 a 59, en algunos casos puede existir un tercer grupo de dos dígitos que indica los segundos en un rango de 0 a 59 segundos.
Relojes de pulsera[editar]
Artículo principal: Reloj de pulsera

Reloj de muñeca de cuarzo.
Al principio, sólo los llevaban las mujeres, hasta la Primera Guerra Mundial (1914-1918), en que se hicieron populares entre los hombres de las trincheras.
Los relojes de pulsera vienen todos con dos correas ajustables que se colocan en alguna de las muñecas para su lectura. Son de tipo analógico y digital. Aunque la carátula de la mayoría de ellos es generalmente redonda, también existen de carátula cuadrada, hexagonal y hasta pentagonales.
En los relojes analógicos (de variable continua) la hora se indica en la carátula mediante dos o tres manecillas: una corta para la hora, una larga para los minutos y, opcionalmente, una tercera manecilla también larga que marca los segundos. En los relojes digitales (de variable discreta) se lee la hora directamente en números sobre la pantalla. También existen relojes mixtos, es decir, analógicos y digitales en la misma carátula.
Los relojes calendarios son relojes mecánicos o digitales que marcan el año en vigor, el mes, el día de la semana, la hora, los minutos e incluso los segundos.
Cronógrafo[editar]
Artículo principal: Cronógrafo
Los cronógrafos son relojes muy precisos (normalmente hasta las milésimas de segundo) utilizados para medir intervalos de tiempo, por ejemplo en pruebas deportivas o en experimentos científicos.
Cronómetro[editar]
Artículo principal: Cronómetro
En alta relojería se refiere a instrumentos de precisión certificados por el COSC (control oficial suizo de cronometría).
Relojes de torres y campanarios[editar]
Antes de inventarse los relojes personales de pulsera y de bolsillo se inventaron relojes muy grandes de mecanismos complicados y pesados que se colocaban en lo alto de las torres y campanarios de los pueblos y ciudades para que los ciudadanos tuviesen conocimiento de la hora del día. A estos relojes se les conectaba a una campana grande y sonora y es la que iba indicando con un toque peculiar las horas y cuartos de hora cuando se iban cumpliendo. A lo largo de los años hay relojes de este tipo que se han hecho muy famosos, como el Gran Reloj de Westminster situado en la Torre de Isabel del palacio del Parlamento británico o el situado en la Puerta del Sol de Madrid.
Relojes de salón[editar]

Reloj artístico de salón.
Los relojes han figurado durante siglos como piezas importantes en el amueblamiento de salones, para lo cual se construían con diversas formas decorativas. Prescindiendo del reloj de arena, que viene usándose desde las civilizaciones griega y romana para medir lapsos cortos y prefijados, los relojes fueron usados en cantidad muy pequeña hasta finales del siglo XIII o mediados del siglo XIV, época en la cual se inventó el motor de resorte o muelle real, difundiéndose el uso del reloj-mueble en el siglo XVI.
De esta época se conservan algunos ejemplares muy curiosos en los Museos del Louvre, Berlín y Viena, que tienen la forma exterior de un edificio coronado con una pequeña cúpula donde se halla el timbre o campana de las horas.
El reloj de bolsillo[editar]
Artículo principal: Reloj de bolsillo

Reloj de bolsillo.
Los relojes de bolsillo se inventaron en Francia a mediados del siglo XV, poco después de aplicarse a la relojería el muelle espiral. Al principio tenían forma cilíndrica, variando mucho y con raros caprichos, y desde el comienzo del siglo XVI se construyeron en Núremberg con profusión y en forma ovoidea, de donde deriva el nombre de huevos de Núremberg, creyéndose inventados en esta ciudad alemana e italiana.
El reloj nuclear[editar]
El reloj nuclear podría ser útil para algunas comunicaciones confidenciales y para el estudio de teorías fundamentales de la física. Asimismo podría añadir precisión al sistema de posicionamiento global (GPS por su sigla en inglés), que se sustenta ahora en relojes atómicos. La precisión extrema de este reloj, cien veces superior a la de los actuales relojes atómicos, proviene del núcleo de un solo ion de torio.
Otros tipos[editar]

Reloj con números romanos.

Venta de relojes de bolsillo en Puebla, México
Otros tipos de relojes según su forma o empleo son:
Reloj Atmos
Reloj de cucú o de cuco
Reloj Foliot
Reloj de sol
Reloj de misa
Reloj de arena
Reloj binario
Reloj de agua o clepsidra
Reloj de péndulo
Reloj de bolsillo
Reloj despertador
Reloj electrónico
Reloj de diapasón
Reloj de cuarzo
Reloj atómico
Reloj digital
Reloj de ajedrez
Reloj de vela
Reloj de vapor
Reloj de taxi
Metrónomo
Reloj japonés
Reloj inteligente
Partes del reloj[editar]

Esfera de un reloj de cuadro.
El reloj con esfera tradicional suele contar con manecillas para la hora, minutero (para los minutos) y segundero (para los segundos) y el horario (para la hora). Además, puede contar adicionalmente con despertador o calendario.

Funcionamiento de los relojes electrónicos[editar]
Artículo principal: Reloj de cuarzo

Reloj electrónico de engranajes.
Dígito c2.svg Dígito c1.svg Dígito cS.svg Dígito c3.svg Dígito c7.svg Dígito cS.svg Dígito c4.svg Dígito c8.svg
Pantalla de reloj digital con segundos.
Un reloj electrónico es un reloj en el que la base de tiempos es electrónica o electromecánica, al igual que la división de frecuencia. La exactitud del reloj depende de la base de tiempos, que puede consistir en un oscilador o en un adaptador que, a partir de una referencia, genera una señal periódica.
El divisor de frecuencia es un circuito digital formado por una sucesión de contadores hasta obtener una frecuencia de 1 Hz, que permite mostrar segundos. Si se quiere mostrar décimas, la división se detiene al llegar a los 10 Hz. Esta frecuencia pasa al módulo de presentación, que puede ser de carácter electrónico o mecánico, donde otros divisores van separando los segundos, minutos y horas para presentarlas mediante algún tipo de pantalla.
Funcionamiento de los relojes mecánicos[editar]
Artículo principal: Reloj mecánico

Reloj mecánico.
Los relojes mecánicos carecen en la mayoría de los casos de componentes electrónicos; este tipo de relojes cuentan con un sistema mecánico fabricado generalmente en metal, en donde la fuerza motriz necesaria para poner en marcha la maquinaria es proporcionada por un muelle motor o por medio de pesas conectadas por cadenas o cables.
En la cultura popular es común referirse a la carga del muelle motor como "dar cuerda", no obstante este término es erróneo, y solo es aplicable a los relojes de pesas, en donde literalmente se le da cuerda a un cilindro dentro del reloj para que de esa manera continúe el descenso de la pesa que da vida al mismo. Dentro de un muelle motor se encuentra una banda o cinta de acero templado que, al enrollarse, genera una fuerza de torsión usada por el reloj para mover el mecanismo, bien sea la marcha o la sonería. Por medio de un tren de engranajes se reduce la fuerza y aumenta la velocidad, finalizando en una rueda dentada de manera especial, llamada rueda de escape, la cual conecta con una pieza llamada Ancora. Esta pieza es la encargada de convertir el movimiento rotatorio de los engranajes en un desplazamiento lateral de izquierda a derecha que se trasmite a un volante o a un péndulo para proveerles la energía suficiente para oscilar. Es el contacto entre estas dos piezas, rueda de escape y Ancora el que produce el famoso tic-tac. Finalmente, el péndulo o el volante marcan el paso del tiempo y se les conoce con el nombre de órgano regulador. El reloj usa sus oscilaciones o alternancias constantes para determinar el paso del tiempo: cuanto más preciso sea el mecanismo, menos variaciones habrá en la periodicidad de las oscilaciones.
Cabe resaltar que, aunque los relojes de pulsera, que usan volantes como órgano regulador, han logrado niveles de exactitud sorprendentes; el péndulo y su oscilación periódica regular continúan siendo el patrón de medición del tiempo u órgano regulador más exacto en los relojes mecánicos.
Normalmente el número de engranajes o ruedas que posee un reloj mecánico es consecuencia directa del tiempo estimado en el que el muelle o la pesa le proveerá energía suficiente para funcionar; así, si un reloj mecánico, por ejemplo un despertador, está construido para almacenar 24 horas de marcha, el número de ruedas será generalmente de cinco, desde el engranaje del muelle hasta la rueda de escape; por otro lado, si se trata de un reloj de pared, en donde la reserva de marcha está diseñada para durar 192 horas (ocho días), entonces se añadirá una rueda extra justo después del muelle motor para de esta forma aumentar la velocidad del mecanismo de escape en relación a la velocidad de rotación del muelle motor, expandiendo así la autonomía de funcionamiento del mecanismo, aunque en estos casos se requiere de muelles más poderosos, para compensar la pérdida de fuerza causada por el aumento en la relación de los engranajes; finalmente, la hora se muestra siempre en formato analógico, por medio de manecillas, que usan el giro de los engranajes internos, usualmente la rueda primera para los relojes de 1 día, y la rueda segunda para los de 8 días, para convertir el movimiento del tren de engranajes, controlado por el sistema de escape, en indicaciones comprensibles para las personas, quienes realizan la lectura de la hora fijándose en la posición de las manecillas frente a una escala horaria fija en el frente del reloj.
Cabe resaltar, que el minutero en el reloj mecánico, a diferencia del horario, no posee un tren de engranajes independiente que ajuste la relación para marcar la hora, éste se encuentra fijo a la rueda que usualmente engrana con el muelle motor, dicha rueda posee un eje que sobresale, en frente de la maquinaria, y que es de hecho el eje conocido como “cañón”, donde se conecta el minutero, por lo tanto esta rueda gira una vez cada 60 minutos exactamente, el cañón horario realiza una reducción de velocidad, usando un pequeño tren de engranajes ubicado en la parte frontal del reloj justo entre el minutero y el horario, la relación entre ambos seria entonces de 1/12, en donde por cada vuelta de la manecilla horaria, la minutera ha debido girar 12 veces, este mecanismo también se encuentra en todos los relojes electrónicos con lectura analógica.
Base de tiempos[editar]
RelojBL.png

Relojero.
El tipo de base de tiempos utilizada es tan importante que suele dar nombre al tipo de reloj. Las más habituales son:
Patrón red. No tiene oscilador y utiliza como referencia los 50 Hz (ó 60 Hz) de la red. Es la más simple, pero es bastante exacta a medio plazo, pues las alteraciones en la frecuencia de red suelen compensarse a lo largo del día. Tiene dos inconvenientes importantes:
Necesita una señal “limpia”, para lo cual se suele filtrar antes de aplicarla a los contadores.
Necesita la red, lo que no permite su utilización portátil y además, frenta a un corte de luz, pierde la hora. Existen modelos que incluyen un oscilador y pilas o baterías, de modo que el oscilador y los contadores siguen funcionando durante el corte, con lo que no se pierde la hora.
Emisora patrón. La base de tiempos viene a ser algún tipo de PLL, enganchado con alguna de las emisoras horarias. Se ponen en hora solos y cambian al horario de invierno o verano de forma autónoma. Su inconveniente es que necesita la señal horaria, de modo que en zonas “oscuras” no presenta mayores ventajas.
Reloj de diapasón. El oscilador está controlado por un diapasón intercalado en el lazo de realimentación. Ya ha caído en desuso, pero en su momento eran de gama alta, y Bulova, por ejemplo, disponía de relojes de diapasón de pulsera.
Reloj de cuarzo. Sustituye el diapasón por un resonador de cuarzo, habitualmente a 32768 Hz, por ser potencia exacta de dos, lo que simplifica el divisor de frecuencia. Por su estabilidad y economía ha desplazado a todos los otros tipos de reloj en las aplicaciones habituales.
Reloj atómico (Amoníaco, cesio, etc.) Se basa en incluir en el lazo de realimentación una cavidad con moléculas de la sustancia adecuada, de manera que se excite la resonancia de alguno de sus átomos.
El reloj mecánico se basa en un pulsador que puede ser de 1 Hz o submúltiplo. Por lo general este pulsador era un mecanismo de escape mecánico en el cual la energía almacenada en un muelle era liberada de manera constante y lenta. El sonido de tic-tac del reloj corresponde a este sistema de escape que es el responsable de generar la base de tiempo del reloj y brinda movimiento al segundero; tanto el minutero como el horario son movidos mediante trenes de engranajes que transforman la relación del segundero en 1/60 para el minutero y de éste 1/60 para el horario( ver imagen).
Un reloj digital consta de un oscilador, generalmente de cuarzo el cuál mediante divisor de frecuencia, a similitud de los trenes de engranajes, genera las señales de 1 Hz, 1/60 Hz y 1/3600 Hz para el segundero, minutero y horario respectivamente. En este caso los distintos pulsos eléctricos pasan a 3 contadores en cascada que se corresponden en la pantalla a los segundos, minutos y horas respectivamente. Estos contadores están acoplados para permitir la secuencia necesaria de conteo y de señalización entre un contador y otro, a saber 0 al 59 para los segundos y los minutos y 0 a 24 o 1 a 12 para las horas, según el diseño particular o la configuración en modelos que permiten ambas.

Ha recibido 761 puntos

Vótalo:

COCHE (1879)

30. COCHE (1879)

https://www.youtube.com/watch?v=rPoKXkTfMmQ

El término automóvil (del griego αὐτο "uno mismo", y del latín mobĭlis "que se mueve") se utiliza por antonomasia para referirse a los automóviles de turismo.1 En una definición más genérica, se refiere a un vehículo autopropulsado destinado al transporte de personas o mercancías sin necesidad... Ver mas
El término automóvil (del griego αὐτο "uno mismo", y del latín mobĭlis "que se mueve") se utiliza por antonomasia para referirse a los automóviles de turismo.1 En una definición más genérica, se refiere a un vehículo autopropulsado destinado al transporte de personas o mercancías sin necesidad de carriles.1 Existen diferentes tipos de automóviles, como camiones, autobuses,2 furgonetas,3 motocicletas,4 motocarros o cuatriciclos.
Índice [ocultar]
1 Historia
2 Partes principales en vehículos automóviles
3 Orden de masa en vehículos automóviles
4 Clasificación de vehículos automóviles
4.1 Según Reglamento de Homologación nº 13
4.2 Según Directivas CE 77/143, 88/449, 91/328
5 Método de propulsión
5.1 Combustibles
5.2 Accionamiento eléctrico
5.3 Accionamiento híbrido
5.4 Otros sistemas de propulsión
6 Datos técnicos de un automóvil que figuran en los catálogos comerciales
7 Contaminación
8 Véase también
9 Referencias
10 Enlaces externos
Historia[editar]

Chevrolet Camaro.
Artículo principal: Historia del automóvil
El primer automóvil con motor de combustión interna se atribuye a Karl Friedrich Benz en la ciudad de Mannheim en 1886 con el modelo Benz Patent-Motorwagen.5 Poco después, otros pioneros como Gottlieb Daimler y Wilhelm Maybach presentaron sus modelos. El primer viaje largo en un automóvil lo realizó Bertha Benz en 1888 al ir de Mannheim a Pforzheim, ciudades separadas entre sí por unos 105 km.6 Cabe destacar que fue un hito en la automovilística antigua, dado que un automóvil de esta época tenía como velocidad máxima unos 20 km/h, gastaba muchísimo más combustible de lo que gasta ahora un vehículo a esa misma velocidad y la gasolina se compraba en farmacias, donde no estaba disponible en grandes cantidades.[cita requerida]
El 8 de octubre de 1908, Henry Ford comenzó a producir automóviles en una cadena de montaje con el Ford modelo T, lo que le permitió alcanzar cifras de fabricación hasta entonces impensables. Ford aprovechó el empuje de la Revolución industrial y comenzó a fabricar el Modelo T, en serie, esto era algo nunca antes visto ya que previamente todos los automóviles se fabrican a mano, con un proceso artesanal que requería de mucho tiempo. La línea de ensamble de Ford le permitió fabricar los Modelo T durante casi veinte años, en los cuales produjo quince millones de ejemplares.

MG PA modificado
Partes principales en vehículos automóviles[editar]
Estructura (Carrocería, Chasis, Bastidor)
Neumático
Autoestop
Llanta
Volante de dirección
Motor (Grupo motopropulsor: motor, embrague, caja de cambios)
Palanca de cambios
Transmisión
Frenos
Dirección
Suspensión
Sistemas auxiliares de seguridad y confort
Orden de masa en vehículos automóviles[editar]
Tara: masa del vehículo con su dotación completa de agua, combustible, lubricante, repuestos y accesórios, sin pasajeros ni carga.
Masa en orden de marcha: tara+conductor de 75 kg (para autobuses y autocares +acompañante de 75 kg).
Masa en carga: masa efectiva del vehículo.
Masa máxima autorizada: M.M.A., la masa máxima permitida para el vehículo en vías públicas.
Masa máxima técnicamente admisible: La masa máxima para la utilización del vehículo basada en su construcción según especificaciones del fabricante.
Masa remolcable máxima autorizada: masa máxima autorizada en vía pública para un remolque o semi-remolque.
Masa por eje: la que gravita sobre el suelo transmitida por la totalidad de las ruedas acopladas a un eje en cada uno de los casos anteriormente descritos.
Clasificación de vehículos automóviles[editar]

Maserati GranTurismo
Según Reglamento de Homologación nº 13[editar]
L:Vehículos de menos de 4 ruedas:
L1: Cilindrada menor a 50 c.c. y cuya velocidad es inferior a 50 km/h con 2 ruedas.
L2: Cilindrada menor a 50 c.c. y cuya velocidad es inferior a 50 km/h con 3 ruedas.
L3: Cilindrada mayor a 50 c.c. y cuya velocidad es mayor a 50 km/h con 2 ruedas.
L4: Cilindrada mayor a 50 c.c. y cuya velocidad es superior a 50 km/h con 3 ruedas asimétricas.
L5: Masa máxima autorizada (M.M.A.) menor a 1000 kg y cilindrada mayor a 50 km/h con tres ruedas asimétricas.
M: Vehículos destinados al transporte de personas:
M: Vehículos de 4 o 3 ruedas cuya M.M.A. sea inferior a 1000 kg.
M1: Vehículos con una capacidad igual o inferior a 9 plazas.
M2: Vehículos con una capacidad mayor a 9 plazas y una M.M.A. inferior a 5000 kg.
M3: Vehículos con una capacidad mayor a 9 plazas y una M.M.A. superior a 5000 kg
N: Vehículos destinados al transporte de mercancías:
N: Vehículos de 4 o 3 ruedas cuya M.M.A. sea inferior a 1000 kg.
N1: Vehículos cuya M.M.A. sea inferior a 3500 kg.
N2: Vehículos cuya M.M.A. sea inferior a 12000 kg.
N3: Vehículos cuya M.M.A. sea superior a 12.000 kg.
O: Remolques y semirremolques:
O1: Remolques y semirremolques cuya M.M.A. sea inferior a 750 kg.
O2: Remolques y semirremolques cuya M.M.A. sea superior a 750 kg. e inferior a 3500 kg.
O3: Remolques y semirremolques cuya M.M.A. se superior a 3500 kg e inferior a 10000 kg.
O4: Remolques y semirremolques cuya M.M.A. se superior a 10000 kg.
Según Directivas CE 77/143, 88/449, 91/328[editar]
Categoría 1: Destinados al transporte de personas con más de 9 plazas.
Categoría 2: Destinados al transporte de mercancías cuya M.M.A. exceda de 3500 kg.
Categoría 3: Remolques o semirremolques cuya M.M.A. exceda de 3500 kg.
Categoría 4: Transporte de personas con aparato taxímetro o ambulancia.
Categoría 5: Mínimo 4 ruedas, destinados al transporte de personas con una M.M.A. de hasta 3500 kg.
Método de propulsión[editar]
Los automóviles se propulsan mediante diferentes tipos de motores como son:
Motores de vapor: Fueron los primeros motores empleados en máquinas automóviles. Su principio de funcionamiento se basa en quemar un combustible para calentar agua dentro de una caldera (inicialmente fue mediante leña o carbón) por encima del punto de ebullición generando así una elevada presión en su interior. Cuando se alcanza determinado nivel de presión el vapor es conducido, mediante válvulas, a un sistema de cilindros que transforma la energía del vapor en movimiento alternativo, que a su vez es transmitido a las ruedas. El uso más habitual de estos motores fue en los ferrocarriles.
Motores de combustión interna: El combustible reacciona con un comburente, normalmente el oxígeno del aire, produciéndose una combustión dentro de los cilindros. Mediante dicha reacción exotérmica, parte de la energía del combustible es liberada en forma de energía térmica que, mediante un proceso termodinámico, se transforma parcialmente en energía mecánica. En automoción, los motores más utilizados son los motores de combustión interna, especialmente los alternativos motores Otto y motores diésel, aunque también se utilizan motores rotativos Wankel o turbinas de reacción.
Motor eléctrico: Consumen electricidad que se suele suministrar mediante baterías que admiten varios ciclos de carga y descarga. Durante la descarga, la energía interna de los reactivos es transformada parcialmente en energía eléctrica. Este proceso se realiza mediante una reacción electroquímica de reducción-oxidación, dando lugar a la oxidación en el terminal negativo, que actúa como ánodo, y la reducción en el terminal positivo, que actúa como cátodo. La energía eléctrica obtenida es transformada por el motor eléctrico en energía mecánica. Durante la carga, se proporciona energía eléctrica a la batería para que aumente su energía interna y la reacción reversible de oxidación-reducción se realiza en sentido opuesto al de la descarga, dando lugar a la reducción en el terminal negativo, que actúa de como cátodo y la oxidación en el terminal positivo que actúa como ánodo.
Combustibles[editar]

Recarga de un automóvil de turismo con gas natural vehicular.

Motor de cuatro tiempos de un vehículo de combustible flexible brasileño con un pequeño depósito de reserva de gasolina utilizado para el arranque en frío cuando la temperatura es inferior a 15 °C.
Actualmente, los combustibles más utilizados para accionar los motores de los automóviles son algunos productos derivados del petróleo y del gas natural, como la gasolina, el gasóleo, gases licuados del petróleo (butano y propano), gas natural vehicular o gas natural comprimido. Fuera del ámbito de los turismos se utilizan otros combustibles para el accionamiento de vehículos de otros medios de transporte, como el fueloil en algunos barcos o el queroseno en las turbinas del transporte aéreo.
En algunos países también se utilizan biocombustibles como el bioetanol o el biodiésel. Los principales productores de bioetanol son Estados Unidos y Brasil, seguidos de lejos por la Unión Europea, China y Canadá,7 generalmente a partir de la fermentación del azúcar de productos agrícolas como maíz, caña de azúcar, remolacha o cereales como trigo o cebada. El biodiésel es producido principalmente por la Unión Europea y Estados Unidos,8 en su mayor parte a partir de la esterificación y transesterificación de aceites de plantas oleaginosas, usados o sin usar, como el girasol, la palma o la soja.
Existe debate sobre la viabilidad energética de estos combustibles y cuestionamientos por el efecto que tienen al competir con la disponibilidad de tierras para el cultivo de alimentos.9 10 Sin embargo, tanto el impacto sobre el ambiente como el efecto sobre el precio y disponibilidad de los alimentos dependen del tipo de insumo que se utilice para producir el biocombustible.11 12 13 14 En el caso del bioetanol, cuando es producido a partir de maíz se considera que sus impactos son significativos y su eficiencia energética es menor, mientras que la producción de etanol en Brasil a partir de caña de azúcar es considerada sostenible.11 12 13 15 16 No obstante también existe Biodiesel obtenido de aceites vegetales usados y desechados ya para alimentación que no tendrían impacto negativo alguno en el medio ambiente.
Véanse también: Gasohol y Vehículo de combustible flexible.
Accionamiento eléctrico[editar]
Aunque hace muchos años que se utilizan los vehículos eléctricos en diferentes ámbitos del sector industrial, ha sido recientemente (por cuestiones políticas) que se han comenzado a producir en serie turismos con motor eléctrico. Si bien la autonomía de estos vehículos es muy limitada debido a la poca carga eléctrica almacenable en las baterías por unidad de masa, en un futuro esa capacidad podría aumentarse. El nivel de contaminación depende de cómo se genere la electricidad utilizada y de las fuentes de energía primaria que se utilicen (en España, la electricidad se genera aproximadamente en un 33 % de fuente nuclear, 34 % de centrales térmicas y el resto es hidráulica, solar y eólica).
La propulsión eléctrica tiene la principal desventaja en su peso, corta autonomía y excesivo tiempo de recarga (debido a las baterías); como ventajas, tienen la variación continua de velocidad, sencillez —no requiere embrague ni caja de engranes— y recuperabilidad de la energía al frenar.
Accionamiento híbrido[editar]
Los híbridos pueden ser vehículos de combustión que mueven un generador para cargar baterías o vehículos con los dos sistemas (de combustión y eléctrico) instalados separadamente.
Recientemente se ha comenzado la comercialización de automóviles de turismo híbridos, que poseen un motor eléctrico principal (o uno en cada rueda). Además tienen un motor térmico de pistones o turbina que mueve a un generador eléctrico a bordo, para recargar las baterías mientras se viaja, que funciona cuando las baterías se descargan. Las baterías se recargan con la energía proporcionada por el generador eléctrico movido por el motor térmico o al frenar el automóvil con frenos regenerativos. Los turbogeneradores tienen ventajas de peso, limpieza, bajo mantenimiento y variabilidad de combustibles (en estas épocas de incertidumbre petrolera), ante los motores de pistones.
En todo caso siguen siendo vehículos de combustión con la opción eléctrica para desplazamientos cortos.
Otros sistemas de propulsión[editar]

Esquema de funcionamiento de una pila de combustible.
Otra forma de energía para el automóvil es el hidrógeno, que no es una fuente de energía primaria, sino un vector energético, pues para su obtención es necesario consumir energía. La combinación del hidrógeno con el oxígeno deja como único residuo vapor de agua. Hay dos métodos para aprovechar el hidrógeno, uno mediante un motor de combustión interna y otro mediante pilas de combustible, una tecnología actualmente cara y en pleno proceso de desarrollo. El hidrógeno normalmente se obtiene a partir de hidrocarburos mediante el procedimiento de reformado con vapor. Podría obtenerse por medio de electrólisis del agua, pero no suele hacerse pues es un procedimiento que consume más energía de la que después aporta.
También existen motores experimentales que funcionan por aire comprimido. La compresión del aire debe ser generada previamente con otro motor, por lo que no son prácticos.
Véase también: Vehículo de combustible alternativo
Datos técnicos de un automóvil que figuran en los catálogos comerciales[editar]

Volvo 460
Los establecimientos comerciales que venden automóviles nuevos facilitan a los compradores que se interesan por sus vehículos catálogos comerciales donde figuran datos de cada modelo como los siguientes:17
Motor:
Tipo de motor:
Motor de combustión interna
Motor eléctrico disposición del motor
Motor rotativo (en los Mazda RX-7 y Mazda RX-8)
Cilindrada, diámetro de cilindro por carrera por número de cilindros.
Relación de compresión
Potencia máxima. En kW y CV, incluyendo la velocidad de giro del motor (en rpm) a la que se alcanza dicha potencia.
Par máximo. En Nm, indicando el régimen del motor cuando se alcanza dicho par.
Tipo de sistema de alimentación de combustible, indicando si es de carburador o de inyección directa o indirecta.
Tipo de sistema de alimentación de aire: turboalimentado o atmosférico.
Combustible utilizado
Alternador
Capacidad de carga de la batería. Habitualmente se indica en Amperios hora (Ah)
Capacidad depósito (l)
Prestaciones
Velocidad máxima (km/h)
Tiempo de aceleración de 0 a 100 km/h (s)
Tiempo de aceleración entre dos velocidades en una marcha concreta (s)
Tiempo de aceleración para recorrer 1000 m desde que empieza a moverse (s)
Consumos: en ciclo urbano, ciclo extra urbano, ponderado. Suele indicarse en l/100 km en Europa y en millas por galón (mpg) en Estados Unidos.
Emisiones CO2, en ciclo urbano, ciclo extraurbano y ponderado. Se expresa en g/km.
Transmisión: tipo de caja de cambios, número de velocidades, relaciones de reducción, velocidad de circulación a una determinada velocidad del motor en cada marcha.
Frenos: tipo (freno de disco, freno de tambor, antiblockiersystem),dimensiones
Ruedas: dimensiones de llantas y neumáticos
Otros: tipo de Suspensión delantera y trasera, tipo de mecanismo de dirección, radio de giro mínimo.
Carrocería
Tipo de carrocería
Gálibo: longitud, anchura y altura
Batalla (distancia entre ejes) y vías delantera y trasera
Capacidad del maletero
Masas: tara, masa máxima autorizada, masa máxima remolcable (con freno y sin freno en el remolque).
Contaminación[editar]
Artículo principal: Cambio climático
En Europa se está extendiendo entre los consumidores la tendencia a comprar coches que generen menos contaminación, uno de los mayores problemas actuales en el mundo. Algunas marcas, como Honda o Toyota, Chevrolet, Ford y otras marcas ya están yendo hacia la electrificación del transporte con vehículos híbridos (un motor de gasolina y otro eléctrico).
En España, la etiqueta energética ya están disponible también para los coches. Los vehículos clasificados como A y B emiten niveles de CO2 por debajo del umbral de 120 g/km, los vehículos clasificados como G, en cambio, emiten más que el doble.18
La sociedad JATO Dynamics (en), nacida en 1984 y presente en más de 40 países evaluó por marca cuáles son en promedio los que producen los vehículos menos contaminantes. De la investigación FIAT ocupó el primer lugar con 133,7 g/km (gramo de emisión de CO2 por kilómetro recorrido). Le siguen Peugeot con 138,1 g/km, Citroën con 142,4 g/km, Renault con 142,7 g/km, Toyota con 144,9 g/km y cierra la lista Ford con 147,8 g/km.19
En la actualidad la norma europea sobre emisiones no limita las emisiones de CO2 en automóviles, aunque sí se indica el CO2 que emiten los automóviles en la etiqueta energética y, con la entrada en vigor de la norma Euro V el 1 de septiembre de 2009 y tras un periodo de adaptación que finalizará en 2012,[actualizar] se reducirán los niveles medios de CO2 de cada marca a 130 g/km. Cabe indicar que las emisiones de CO2 (g/km) de un motor térmico son proporcionales al consumo de combustible (l/km), considerando que realizan una combustión completa; siendo la razón de proporcionalidad diferente para cada combustible, en función de su concentración de carbono.
Véanse también: Normativa europea sobre emisiones, Óxidos de nitrógeno y Aerosol.
Lamentablemente todas estas normas responden más a cuestiones políticas que reales ya que básicamente solo se tiene en cuenta para definir contaminación las emisiones de CO2, CO y poca cosa más. No se hace ninguna referencia en estas normas a la contaminación del ciclo completo de cada vehículo (toxicidad de materiales etc) o a la que genera el uso de electricidad cuando es generada de forma no renovable (carbón, nuclear, diésel, etc.) en su fuente primaria.

Ha recibido 753 puntos

Vótalo:

LAVADORA (1851)

31. LAVADORA (1851)

https://www.youtube.com/watch?v=Bd0GXdJL3KE

La lavadora o lavarropas es un aparato electromecánico, que puede ser electrodoméstico o de uso industrial. Índice [ocultar] 1 Descripción 2 Historia 3 Véase también 4 Referencias 5 Enlaces externos Descripción[editar] Cuenta con un tambor central grande con orificios que gira mientras... Ver mas
La lavadora o lavarropas es un aparato electromecánico, que puede ser electrodoméstico o de uso industrial.
Índice [ocultar]
1 Descripción
2 Historia
3 Véase también
4 Referencias
5 Enlaces externos
Descripción[editar]
Cuenta con un tambor central grande con orificios que gira mientras se le introduce agua, haciendo que se mezcle el detergente con la ropa sucia. El movimiento del tambor se hace mediante un motor eléctrico. Los motores más comunes están situados detrás y debajo del tambor y comunican la tracción por poleas o correas. El motor de conducción directa (Direct Drive) forma una unidad con el tambor y le transmite directamente la tracción, produciendo muy poco ruido y vibración . La introducción de la microelectrónica ha logrado que algunos modelos dejen la ropa seca y limpia e incluso añaden sensores que controlan el tiempo, la velocidad y la temperatura, algoritmos de recolocación de ropa para evitar excesivas vibraciones durante el centrifugado.
Existen fundamentalmente dos tipos de modelo: las lavadoras de apertura frontal y las de apertura superior. Las horizontales son las que tienen la puerta en el frente y el giro del tambor tiene su eje horizontal, de forma que la ropa, al momento de girar, va cayendo permanentemente al ser impulsada por el giro hacia arriba. Las verticales son las que tienen la puerta arriba y el giro del tambor tiene su eje también vertical.
Las lavadoras tienen en la puerta un sensor o un bloqueo automático, que cuando se abre detiene el funcionamiento, o que impide que puedan ser abiertas mientras están en funcionamiento. Está compuesto por una resistencia PTC que, al recibir corriente, se calienta y activa un bimetal, el cual está conectado a su vez a dos terminales que cierran un contacto eléctrico y dejan circular la corriente hacia el electrodoméstico permitiendo el encendido de éste.
Historia[editar]

Lavadora de la marca Metropolitan, del s. XIX.
La primera patente fue concedida en Inglaterra en 1691 en la categoría de Washing and Wringing Machines (Máquinas de lavar y escurrir),1 y en Alemania Jacob Christian Schäffer publica su diseño en 1767.2 En 1782, Henry Sidgier obtiene una patente británica para una lavadora con tambor giratorio, y en 1862, Richard Lansdale exhibe su "lavadora giratoria compacta " patentada en la Exposición Universal de Londres.3

Anuncio de 1910.
Aunque en los Estados Unidos la primera patente fue para Nathaniel Briggs de Nuevo Hampshire en 1797, no queda constancia del tipo de lavadora que había diseñado por un incendio en la Oficina de Patentes ocurrido en 1836. John E. Turnbull patentó en 1843 una "Lavadora con Wringer Rolls."4

Una lavadora de fabricación alemana.
Ya en 1904 se estaban anunciando lavadoras eléctricas en los Estados Unidos,5 y las ventas estadounidenses habían alcanzado las 913.000 unidades en 1928.[cita requerida] En 1940, el 60% de los 25.000.000 hogares con acceso a la luz eléctrica en los Estados Unidos tenía una lavadora eléctrica.[cita requerida] Sin embargo, debido en parte a la Gran Depresión recién desde finales de la década de 1940 a principios de la década de 1950 se convierte en un artículo de masas. En la Europa occidental desarrollada, la difusión de la lavadora se produce, principalmente, después de la Segunda Guerra Mundial y ya a principios de la década de 1960 se convierte en un aparato cotidiano. Importantes firmas industriales europeas comienzan a fabricar ingentes cantidades de lavadoras; otras, incluso convierten a las lavadoras en su principal fuente de prestigio e ingresos (Kelvinator, Zanussi).
La evolución estética y funcional de la lavadora ha sido muy importante, sobre todo en los últimos años, con la aplicación de la microelectrónica. En el aspecto estético, los electrodomésticos panelables, muy generalizados en la década de 1980, han dado paso a diseños curvos y estilizados, y a múltiples variedades de color.
En 2008, la Universidad de Leeds diseñó una lavadora que solo requiere una taza (aproximadamente 0,5l) de agua para cada lavado. Deja la ropa prácticamente seca y usa menos del 2 por ciento del agua y energía de una lavadora convencional.6

Ha recibido 681 puntos

Vótalo:

RADIO (1896)

32. RADIO (1896)

https://www.youtube.com/watch?v=c_Fe3hRXA6U

La radio (entendida como radiofonía o radiodifusión, términos no estrictamente sinónimos)1 es un medio de comunicación que se basa en el envío de señales de audio a través de ondas de radio, si bien el término se usa también para otras formas de envío de audio a distancia como la radio por... Ver mas
La radio (entendida como radiofonía o radiodifusión, términos no estrictamente sinónimos)1 es un medio de comunicación que se basa en el envío de señales de audio a través de ondas de radio, si bien el término se usa también para otras formas de envío de audio a distancia como la radio por Internet.
Índice [ocultar]
1 Radiocomunicación
2 Historia
2.1 Radios de baja potencia
2.2 Radio por Internet
2.3 Radio digital
2.3.1 Apagón analógico
3 Lenguaje radiofónico: locución
3.1 Mensaje radiofónico
4 Lenguaje radiofónico: redacción radiofónica
4.1 Puntuación
4.2 Estructura gramatical
4.3 Lenguaje radiofónico
5 Géneros radiofónicos
5.1 Géneros periodísticos
5.2 Géneros no periodísticos
6 Radio por países
7 Véase también
8 Referencias
9 Bibliografía
10 Enlaces externos
Radiocomunicación[editar]
Artículo principal: Radiocomunicación
La radiocomunicación es la tecnología que posibilita la transmisión de señales mediante la modulación (de su frecuencia o amplitud) de ondas electromagnéticas. Estas ondas no requieren un medio físico de transporte, por lo que pueden propagarse a través del vacío.
Una onda de radio se origina cuando una partícula cargada (por ejemplo, un electrón) se excita a una frecuencia situada en la zona de radiofrecuencia (RF) del espectro electromagnético. Cuando la onda de radio actúa sobre un conductor eléctrico (la antena), induce en un movimiento de la carga eléctrica (corriente eléctrica) que puede ser transformado en señales de audio u otro tipo de señales portadoras de información.
Historia[editar]
Artículo principal: Historia de la radio
Es difícil atribuir la invención de la radio a una única persona. En diferentes países se reconoce la paternidad en clave local: Aleksandr Stepánovich Popov hizo sus primeras demostraciones en San Petersburgo, Rusia; Nikola Tesla en San Luis (Misuri); Guillermo Marconi en el Reino Unido o el comandante Julio Cervera en España.
En 1873 el físico escocés James Clerk Maxwell formuló la teoría de las ondas electromagnéticas, que son la base de la radio. En 1887 el físico alemán Heinrich Hertz descubrió las ondas de radio, y en 1894 Nikola Tesla hizo su primera demostración en público de una transmisión de radio. Al poco tiempo, en 1895, el italiano Guillermo Marconi construyó el primer sistema de radio, logrando en 1901 enviar señales a la otra orilla del Atlántico, pero como lo hizo con patentes de Tesla se le atribuye el trabajo a este último.2
El español Julio Cervera, que trabajó tres meses en 1898 en el laboratorio privado de Marconi es, según investigaciones realizadas por un profesor de la Universidad de Navarra, el inventor de la radio: Marconi inventó antes de Cervera la telegrafía sin hilos, pero no trabajó en la radio hasta 1913, mientras Cervera fue quien resolvió los problemas de la telefonía sin hilos, lo que conocemos hoy día como radio, al transmitir la voz humana -y no señales- sin hilos entre Alicante e Ibiza en 1902, y llegó a registrar la patente en cuatro países: España, Inglaterra, Alemania y Bélgica.3
Las primeras transmisiones para entretenimiento regulares, comenzaron en 1920 en Argentina y Estados Unidos.4 La primera emisora de carácter regular e informativo es considerada por muchos autores la estación 8MK (hoy día WWJ) de Detroit (Estados Unidos) perteneciente al diario The Detroit News que comenzó a operar el 20 de agosto de 1920, aunque muchos autores opinan que es la KDKA de Pittsburgh que comenzó a emitir en noviembre de 1920, porque obtuvo una licencia comercial antes que aquélla.
En los años 1920 la amplificación mediante válvula termoiónica revolucionó tanto los radiorreceptores como los radiotransmisores.
En 1933 Edwin Armstrong describe un sistema de radio de alta calidad, menos sensible a los parásitos radioeléctricos que la AM, utilizando la modulación de frecuencia (FM). A finales de la década este procedimiento se establece de forma comercial, al montar a su cargo el propio Armstrong una emisora con este sistema.
En 1943 la Corte Suprema de los Estados Unidos cede a Tesla los derechos de invención de la radio luego de interponer éste una demanda de plagio de sus patentes.
En los años 1950 la tecnología radiofónica experimentó un gran número de mejoras que se tradujeron en la generalización del uso del transistor.
En 1957, la firma Regency introduce el primer receptor transistorizado, lo suficientemente pequeño para ser llevado en un bolsillo y alimentado por una pequeña batería. Era fiable porque al no tener válvulas no se calentaba. Durante los siguientes veinte años los transistores desplazaron a las válvulas casi por completo, excepto para muy altas potencias o frecuencias.
Entre las décadas de los años 1960 y 1980 la radio entra en una época de declive debido a la competencia de la televisión y el hecho que las emisoras dejaron de emitir en onda corta (de alcance global) por VHF (el cual solo tiene un alcance de cientos de kilómetros).
En los años 1990 las nuevas tecnologías digitales comienzan a aplicarse al mundo de la radio. Aumenta la calidad del sonido y se hacen pruebas con la radio satelital (también llamada radio HD), esta tecnología permite el resurgimiento en el interés por la radio.
En 2007 se crea la radio digital DAB+. La radio DAB+ es el más significativo avance en tecnología de radio desde la introducción del FM stereo.
Radios de baja potencia[editar]
Artículo principal: Radio comunitaria
En la historia reciente de la radio, han aparecido las radios de baja potencia, constituidas bajo la idea de radio libre o radio comunitaria, con la idea de oponerse a la imposición de un monólogo comercial de mensajes y que permitan una mayor cercanía de la radio con la comunidad, en diferentes partes del mundo. Este tipo de radio utilizan transmisores cuya potencia de salida está en el rango de ½ 40 vatios (watts) y tienen un tamaño físico similar a un ladrillo. Esta tecnología sumada a otros equipos de bajo costo (mezcladoras, reproductoras, filtro, antena), permiten poner la propia voz al aire.
Radio por Internet[editar]
Artículo principal: Radio por Internet
Hoy en día la radio a través de la Internet avanza con rapidez. Por eso, muchas de las grandes emisoras de radio empiezan a experimentar con emisiones por Internet, la primera y más sencilla es una emisión en línea, la cual llega a un público global, de hecho su rápido desarrollo ha supuesto una rivalidad con la televisión, lo que irá aparejado con el desarrollo de la banda ancha en Internet. Una variante interesante de la radio por internet es el podcast, que consiste en una emisión difundida por cualquier persona, usando simplemente un micrófono, un ordenador y un sitio para cargar de archivos de audio.
Radio digital[editar]
Artículo principal: Radio Digital Terrestre
Actualmente existen tres sistemas de radiodifusión digital conocidos con repercusión a nivel mundial: DAB (Transmisión digital de audio), IBOC (In-band On-channel) y DRM (Digital Radio Mondiale), pero esta más se refiere a la radio que se encuentra en nuestros teléfonos móviles , sus estaciones cuentan con un mejor equipo de mejor calidad y más avanzado, pero esta para desarrollarse se necesita una antena pequeña que pueden ser los auriculares.
Apagón analógico[editar]
2015 - 2019 Reino Unido5
2017 Noruega6
2019 Dinamarca7
2022 Suecia8
2024 Suiza9
2025 Alemania
Lenguaje radiofónico: locución[editar]
Artículo principal: Lenguaje radiofónico
Como medio de comunicación, requiere una forma de transmisión concreta. El acto de hablar alcanza su máxima expresión, por lo que es fundamental para el periodista radiofónico controlar su voz, que es su herramienta de trabajo. Para Zanabria, "el timbre, el tono, la intensidad, la entonación, el acento, la modulación, la velocidad y los intervalos son los matices que determinan el estilo de la radio".
Es necesaria una buena vocalización y leer con naturalidad para no caer en errores de tipo gramatical y que se comprenda bien el mensaje que se desea transmitir.
El lenguaje radiofónico está compuesto por unas reglas que hacen posible la comunicación. Cada una de ellas aporta un valor necesario para la comprensión del mensaje:
La voz aporta la carga dramática.
La palabra, la imagen conceptual.
El sonido describe el contexto físico.
La música transmite el sentimiento.
El silencio, la valoración.
Mensaje radiofónico[editar]
La radio transmite su mensaje en forma de sonido. Según Mariano Cebrián, catedrático de periodismo, "la técnica es tan determinante que se incorpora a la expresión como un sistema significante más". El mensaje radiofónico se produce gracias a una mediación técnica y humana, que expresa un contexto narrativo acústico. Según Vicente Mateos, "el mensaje radiofónico debe cumplir unos principios comunicativos para que llegue con total eficacia al oyente", tales como:
Audibilidad de los sonidos.
Comprensión de los contenidos.
Contextualización.
Lenguaje radiofónico: redacción radiofónica[editar]
Artículo principal: Lenguaje radiofónico
Si la actualidad y la rapidez son los aspectos más relevantes de la información, es evidente que la simultaneidad y la inmediatez prestan un gran servicio a la información. La radio será la primera en suministrar 'la primera noticia' de un acontecimiento y ésta es una de las principales características del periodismo radiofónico.
La radio como medio informativo puede jugar un papel muy diferente. Además de transmitir lo más rápidamente posible los acontecimientos actuales, puede aumentar la comprensión pública a través de la explicación y el análisis. Esta profundización en los temas cuenta con la ventaja de poder ser expuesta por sus conocedores, sin pasar por el tamiz de los no expertos -en este caso los periodistas- como no sea para darle unas formas comunicativas adecuadas al medio. Se cuenta además, en este sentido reflexivo, con la capacidad de restitución de la realidad a través de las representaciones fragmentarias de la misma vehiculadas con su contorno acústico. Así, frente a la brevedad enunciativa de la noticia radiofónica se sitúa el reportaje, la entrevista, la mesa redonda, la explicación; en definitiva, la radio en profundidad.
De este modo la radio se opone a las teorías que la sitúan como incapaz de una comunicación de mayor nivel que la simple transmisión de noticias, cuando la "incapacidad" ha radicado siempre en el desconocimiento de la naturaleza del fenómeno radiofónico.
Faus, 1973
En otras ocasiones, que son la mayoría, el empeño se debe mucho más al perfecto conocimiento del medio que a su desconocimiento. En esta perspectiva, reducirla a un medio que suministra 'información nerviosa por sistema' contribuye a ofrecer una visión parcializada del entorno que dificulta la comprensión de los fenómenos sociales. La importancia de la radio como medio informativo se debe a otra característica más: su capacidad de comunicar con un público que no necesita una formación específica para descodificar el mensaje. Este hecho tiene importancia en un público que no sabe leer, pero sobre todo adquiere mayor importancia para todos aquellos que no quieren o no tienen tiempo para leer. Así, la radio juega un papel informativo relevante en las sociedades subdesarrolladas con un porcentaje elevado de analfabetos. Este papel aún resulta más importante en sociedades superdesarrolladas en las que la organización del tiempo aboca a los buscadores de información a recogerla en la radio ya que les permite realizar otras acciones simultáneamente. Hay que añadir que, por lo general, estas sociedades están en pleno auge de la cultura audiovisual, que desplaza a un segundo término la cultura impresa.
Las mismas características que hacen de la radio el medio informativo por excelencia, influyen y determinan la estructura de la información radiofónica que tiene dos características esenciales: brevedad y sencillez. Ambas en función de la claridad enunciativa que contribuye a la eficacia del mensaje radiofónico. Al redactar un texto periodístico para la radio, hay que pensar que se va a elaborar un texto para ser oído, para ser contado, y no para ser leído. Esta actitud facilitará la difícil tarea de ofrecer en unas cuantas frases breves y sencillas la misma información que en el periódico ocupará varios párrafos de elaboración literaria. En definitiva, se necesita un cambio total de mentalidad para escribir para la radio. Este cambio de mentalidad afecta a tres aspectos: la puntuación, la estructura gramatical y el lenguaje.
Puntuación[editar]
Resulta difícil cambiar los hábitos de puntuación que se han cultivado durante años, pero es imprescindible hacerlo. En radio, la puntuación sirve para asociar la idea expresada a su unidad sonora y, por tanto, para marcar unidades fónicas y no gramaticales como es usual en la cultura impresa. Para marcar estas unidades fónicas solo se necesitan dos signos de amplia gama que nos ofrece la escritura. Estos son la coma y el punto.
Coma
En el texto radiofónico marca una pequeña pausa que introduce una variación en la entonación y da lugar a la renovación de aire si es preciso. No se debe utilizar este signo si en la expresión oral no hay que realizar esa pausa, aunque fuera correcta su colocación en la redacción impresa. Cualquier alteración de esta norma contribuye a que la lectura de ese texto sea eso, una 'lectura' y no una 'expresión hablada' de unas ideas.
Punto
Es la señal que indica el final de una unidad fónica completa. La resolución de entonación que marca el punto puede ser de carácter parcial (en el caso de los puntos que marcan el final de una frase) y de carácter total (en los puntos que marcan el final de un párrafo). El punto señala una resolución de entonación más, que es la correspondiente al punto que indica el final del discurso y que tiene carácter culminante. El punto final de una frase supone una pausa más larga que la coma y al final de un párrafo indica una pausa algo mayor. Si se aplican correctamente estos signos la respiración no se encontrará con dificultad alguna y su realización no supondrá ninguna distorsión para la entonación.
El resto de signos son casi innecesarios en su totalidad. Ninguna razón justifica la utilización del punto y coma (;), los dos puntos (:) o el punto y guion (.-). Con respecto a los paréntesis y a los guiones hay que tener en cuenta que en la mayor parte de los casos se introducen ideas adicionales que podrían perturbar la comprensión de la idea principal que tratamos de expresar.
Estructura gramatical[editar]
Se utiliza en radio para perseguir la claridad y la sencillez expresivas. La claridad va a ser la principal característica de la redacción en radio. Una claridad que deberá ser extensible a otros medios periodísticos, ya que responde a lo que Núñez Ladeveze denomina 'funciones periodísticas de la comunicación': máxima concentración informativa, rapidez de lectura y mínimo esfuerzo de interpretación.
Estas características son más importantes en radio, si cabe, ya que en la descodificación se realiza en presente y no hay posibilidad de revisión. Hay dos razones más por las que es aconsejable la utilización de una expresión clara y sencilla en la redacción radiofónica. Por un lado la diversidad del público y, en segundo lugar, la diferentes situaciones de audiencia. A la heterogeneidad hay que añadir las diferentes situaciones en que se encuentra el receptor en el momento de efectuar la descodificación. La radio ayuda a que la recepción del mensaje sea compatible con otras actividades, en especial con las que tienen un carácter manual. Las frases deben ser cortas, y para ello hay que recurrir a la estructura gramatical más sencilla, que es la compuesta por sujeto, verbo y complemento. No es recomendable la utilización de frases subordinadas y sí las coordinadas ya que introducen la redundancia temática, una categoría positiva en el discurso radiofónico.
Para evitar la monotonía que supone una frase corta tras otra, se dispone de dos tipos de recursos. Por un lado, la combinación de las frases sencillas con aquellas otras a las que se les ha añadido material adicional. El otro son los enlaces de entonación que dan continuidad a las ideas. Se trata de escribir un estilo coloquial. Por lo tanto, el principio de la economía de palabras ha de estar en nuestra mente a la hora de redactar un texto radiofónico.
Lenguaje radiofónico[editar]
Con esta denominación no nos referimos al lenguaje oral exclusivamente. La música, el ruido, silencio y los efectos especiales son parte también del lenguaje radiofónico.
Este lenguaje debe utilizar un vocabulario de uso corriente, optando siempre por la aceptación más común de un término. Hay que utilizar también términos definitorios en la perspectiva de la economía de palabras que hemos aceptado como objetivo. En este sentido, los adjetivos son innecesarios casi siempre ya que aportan poca información. Su utilización en radio solamente es aceptable cuando el matiz que aportan ayuda a precisar la idea que se transmite. También debe eliminarse el adverbio, ya que su acción modificadora es en general innecesaria si se utilizan términos definitorios. Los más justificables son los de tiempo y lugar.
El verbo tiene un papel muy importante en la información radiofónica. Para ser más exactos el tiempo del verbo, ya que es uno de los elementos que denota más actualidad. En la redacción de la notícia de radio, el verbo hay que utilizarlo en presente de indicativo y en voz activa. El pasado no es noticia en radio. El presente denota inmediatez y por tanto, actualidad. En caso de no poder utilizar el presente recurriremos al pretérito más próximo, que es el perfecto. Como último recurso, el indefinido.
Como hemos mencionado anteriormente, la actualidad y la inmediatez son las principales característica de la información radiofónica. Esta actualidad debe quedar patente en los servicios informativos de una emisora y para ello hay que tener en cuenta aquellos recursos que remarcan dicha actualidad en radio. Podemos establecer tres grandes grupos: recursos técnicos, redaccionales y de programación.
Recursos técnicos
Podemos señalar la utilización del teléfono, las unidades móviles y las grabaciones en el lugar de los hechos.
Recursos redaccionales
La utilización del verbo en tiempo presente, así como el uso de palabras y frases que denotan actualidad, como por ejemplo, "en estos momentos...", "al iniciar esta transmisión...", etc.
Recursos de programación
La inclusión de nuevos aspectos de las noticias dadas en anteriores servicios informativos. No basta con cambiar el redactado de las noticias, sino que hay que ofrecer nuevos datos, nuevos ángulos y repercusiones a lo largo del día.
En cuanto a los guiones, hay que señalar que la ley del péndulo ha sido aplicada a su consideración. Se ha pasado de la utilización del guion hasta para toser a la improvisación total. Últimamente, en radio, se utilizan los guiones indicativos o pautas. Este tipo de guion contiene las indicaciones técnicas y temáticas imprescindibles para lograr el acoplamiento del realizador y el editor-presentador. El guion indicativo contendrá el cronometraje de cada intervención, la persona que la realizará y especial atención a todas las fuentes de audio que intervengan.
Teniendo en cuenta todas las características de la redacción radiofónica, se concluye que no debe leerse un texto en radio si previamente no se reelabora, no sólo para darle un estilo propio, sino, principalmente, porque la estructura y concepción del mensaje de agencia o de los comunicados, es estructuralmente la de la expresión escrita, y en muchas ocasiones puede dar al error o a la deficiente recepción que tenga el oyente de ella.
Géneros radiofónicos[editar]
Géneros periodísticos[editar]
Artículo principal: Periodismo radiofónico
La radio es el medio en el que algunos géneros del periodismo clásico alcanzan su máxima expresión. Un ejemplo es la entrevista, el debate y la tertulia. La adaptación de los géneros periodísticos a la radio se caracteriza por la riqueza expresiva y el carácter personal que se incorpora al mensaje transmitido. Las claves para una buena comunicación son contenidos concisos, claros y directos. De esta manera se producirá un mayor efecto de atracción sobre la audiencia.
Los géneros radiofónicos podrían clasificarse de la siguiente manera:
El reportaje
La crónica
La crítica
El comentario
El editorial
La entrevista
La tertulia
El debate
La cuña
El resumen
Géneros no periodísticos[editar]
Radioteatro
Transmisión de música
Radio por países[editar]
Commons-emblem-issue.svg
En esta sección sobre sección se detectó el siguiente problema, para mejorarla, pulsa [editar] junto a su título:
Se trata de una mera lista de datos o enlaces sin mayor explicación.
Puedes avisar al redactor principal pegando lo siguiente en su página de discusión:
{{subst:Aviso PA|Radio (medio de comunicación)}} ~~~~
radio en Argentina
radio en Chile
radio en Colombia
radio en España
radio en México:
Anexo:Estaciones_de_radio_en_el Distrito Federal (México)
Anexo:Estaciones_de_radio_en_el_estado de Aguascalientes
Anexo:Estaciones_de_radio_en_el_estado de Baja California
Anexo:Estaciones_de_radio_en_el_estado de Baja California Sur
Anexo:Estaciones_de_radio_en_el_estado de Campeche
Anexo:Estaciones_de_radio_en_el_estado de Chiapas
Anexo:Estaciones_de_radio_en_el_estado de Chihuahua
Anexo:Estaciones_de_radio_en_el_estado de Coahuila
Anexo:Estaciones_de_radio_en_el_estado de Colima
Anexo:Estaciones_de_radio_en_el_estado de Durango
Anexo:Estaciones_de_radio_en_el_estado de Guanajuato
Anexo:Estaciones_de_radio_en_el_estado de Guerrero
Anexo:Estaciones_de_radio_en_el_estado de Hidalgo
Anexo:Estaciones_de_radio_en_el_estado de Jalisco
Anexo:Estaciones_de_radio_en_el_estado de México
Anexo:Estaciones_de_radio_en_el_estado de Michoacán
Anexo:Estaciones_de_radio_en_el_estado de Morelos
Anexo:Estaciones_de_radio_en_el_estado de Nayarit
Anexo:Estaciones_de_radio_en_el_estado de Nuevo León
Anexo:Estaciones_de_radio_en_el_estado de Oaxaca
Anexo:Estaciones_de_radio_en_el_estado de Puebla
Anexo:Estaciones_de_radio_en_el_estado de Querétaro
Anexo:Estaciones_de_radio_en_el_estado de Quintana Roo
Anexo:Estaciones_de_radio_en_el_estado de San Luis Potosí
Anexo:Estaciones_de_radio_en_el_estado de Sinaloa
Anexo:Estaciones_de_radio_en_el_estado de Sonora
Anexo:Estaciones_de_radio_en_el_estado de Tabasco
Anexo:Estaciones_de_radio_en_el_estado de Tlaxcala
Anexo:Estaciones_de_radio_en_el_estado de Veracruz
Anexo:Estaciones_de_radio_en_el_estado de Yucatán
Anexo:Estaciones_de_radio_en_el_estado de Zacatecas
radio en Perú
radio en Uruguay
radio en Venezuela

Ha recibido 673 puntos

Vótalo:

CINTURÓN DE SEGURIDAD (1959)

33. CINTURÓN DE SEGURIDAD (1959)

https://www.youtube.com/watch?v=pHGVN8f-Kgo

Un cinturón de seguridad es un arnés diseñado para sujetar a un ocupante de un vehículo si ocurre una colisión y mantenerlo en su asiento. Comenzaron a utilizarse en aeronaves en la década de 1930 y, tras años de polémica, su uso en automóviles es actualmente obligatorio en muchos países. El... Ver mas
Un cinturón de seguridad es un arnés diseñado para sujetar a un ocupante de un vehículo si ocurre una colisión y mantenerlo en su asiento. Comenzaron a utilizarse en aeronaves en la década de 1930 y, tras años de polémica, su uso en automóviles es actualmente obligatorio en muchos países. El cinturón de seguridad está considerado como el sistema de seguridad pasiva más efectivo jamás inventado, incluida la bolsa de aire ("airbag" en inglés), la carrocería deformable o cualquier adelanto técnico de hoy en día.
El objetivo de los cinturones de seguridad es minimizar las heridas en una colisión, impidiendo que el pasajero se golpee con los elementos duros del interior o contra las personas en la fila de asientos anterior, y que sea arrojado fuera del vehículo.
Actualmente los cinturones de seguridad poseen tensores que aseguran el cuerpo en el momento del impacto mediante un resorte o un disparo (tensor pirotécnico). El cinturón se debe colocar lo más pegado posible al cuerpo, plano y sin nudos o dobleces. Los pilotos de competición llevan los arneses bastante apretados, pero no se considera necesario en un coche de calle.
El cinturón de las caderas debe estar situado por delante de las crestas ilíacas, los huesos que sobresalen en las caderas. Esto es para que sujete al cuerpo contra un hueso duro y no contra el abdomen blando. En el caso de las embarazadas, se vende un accesorio para asegurarse que el cinturón queda debajo del abdomen. Se engancha entre las piernas a la banda de la cintura y por debajo del asiento.
Índice [ocultar]
1 Historia
2 Tipos de cinturones de seguridad
2.1 Cinturón de dos puntos
2.2 Cinturón de 3 puntos
2.3 Cinturón de 4 puntos
2.4 Arnés de cinco puntos
2.5 Cinturón en X
2.6 Cinturones automáticos
2.7 Cinturones ergonómicos
3 Véase también
4 Enlaces externos
Historia[editar]

Carrete inercial expuesto. El carrete inercial permite el desenrollado lento, pero se bloquea en caso de un tirón brusco, como el que sucede en caso de colisión.
El primer registro de utilización de cinturones de seguridad en un automóvil, data de fines de la década del '40, cuando en 1948 el industrial Preston Tucker intentó revolucionar el sistema de seguridad del automóvil (y en sí todo el estándar de producción de un automóvil), al presentar el cinturón de seguridad como una opción para solucionar las muertes por accidentes viales ocurridas por la falta de este elemento. Esta innovación fue presentada en el único modelo que llegara a producir, el Tucker Torpedo. Lamentablemente, una serie de trabas impuestas por organismos que regulaban la industria norteamericana del automóvil hicieron naufragar el proyecto, pero aun así Tucker había creado un elemento revolucionario en el equipamiento automotor.
La idea de Tucker fue reciclada en 1956, cuando Ford presentó al cinturón de seguridad como opción de equipamiento, dentro del paquete de seguridad "SafeGuard". Robert McNamara fue el directivo de Ford que impulsó el montaje de los cinturones, así como otras medidas de seguridad tales como los salpicaderos acolchados. Un relato de estos hechos se recoge en el documental The Fog of War.
El primer cinturón de seguridad montado de serie como equipamiento estándar en vehículos de producción masiva se montó en el Volvo Amazon de 1959. Este vehículo ya montaba un cinturón de tres puntos.
Fue el ingeniero de Volvo Nils Bohlin quien inventó el cinturón de tres puntos, que se convertiría en la norma prácticamente universal para automóviles de calle. Volvo liberó la patente, para que todos los demás fabricantes pudiesen copiar el diseño.
Otras mejoras posteriores:
Introducción del carrete inercial, que permite desenrollar el cinturón en el caso de movimientos lentos, pero lo bloquea en el caso de movimientos bruscos.
Introducción de los pretensores pirotécnicos, que ajustan el cinturón en caso de colisión mediante la energía liberada por una pequeña carga explosiva. También ha habido pretensores mecánicos (sistema Procon-ten).
Tipos de cinturones de seguridad[editar]

Hebilla de cinturón de seguridad de tres puntos colgando del pilar B de un automóvil.

Arneses en un vehículo de ocio.
Cinturón de dos puntos[editar]
Es el que se coloca sobre las caderas del pasajero. Se lo sigue utilizando principalmente en los aviones y en los autobuses. Se le ha criticado por causar la separación de la espina lumbar, causando a veces parálisis (conocida como "síndrome del cinturón de seguridad").
Cinturón de 3 puntos[editar]
La aportación más importante de Volvo al universo de la seguridad del automóvil es el cinturón de tres puntos de anclaje. La marca sueca decidió montar de serie en todos sus coches este efectivo sistema de retención de las personas en 1959. Desde esa fecha, no se ha inventado ningún otro mecanismo que pueda igualarlo en efectividad.
En los años cuarenta, el PV 444 destacó por sus interesantes soluciones en materia de seguridad. El popular modelo de Volvo sorprendió al mundo con algunos de sus elementos de serie, como el parabrisas laminado. Además, la carrocería disponía de una estructura contra impactos.
El 140 de 1966 marcó nuevas referencias de seguridad. Este modelo montaba un infalible sistema de frenos con doble circuito. El habitáculo destacaba por su resistencia contra colisiones, mientras que el frontal y la zona trasera disponían de estructuras deformables para absorber la energía de los choques. Sus asientos incorporaban reposacabezas.
Incluyen un cinturón en la falda y otro que va de un punto de anclaje en el primero a otro punto por sobre el hombro del pasajero. Este cinturón fue inventado por el ingeniero de Volvo Nils Bohlin (1920-2002). Los primeros coches en montarlo de serie fueron los Volvo de 1959.
Cinturón de 4 puntos[editar]
Usualmente este tipo de cinturón se encuentra en los arneses, este tiene un parecido con el de cinco puntos pero sin sujeción entre las piernas.
Arnés de cinco puntos[editar]
Más seguros, pero más restrictivos, se suelen utilizar en sillas para niños y en automóviles de competición. La porción del regazo se conecta a un cinturón entre las piernas. Además hay dos cinturones por sobre ambos hombros, haciendo un total de cinco puntos de anclaje.
Cinturón en X[editar]
Algunos fabricantes han experimentado con añadir un segundo cinturón adicional de dos puntos de apoyo que se cruza formando una "X" con el cinturón convencional de tres puntos de apoyo.
Cinturones automáticos[editar]

Cinturón automático en un Chevrolet de finales de los años 1980
En Estados Unidos, en la década de 1970, se empezaron a montar cinturones automáticos en muchos coches. Estos cinturones estaban sujetos a la puerta o al pilar B, requiriendo de mucha menos colaboración por parte del pasajero.
Este diseño de cinturón fue una consecuencia de las leyes norteamericanas, que empezaron a exigir a los fabricantes la introducción de protecciones pasivas, esto es, de protecciones que no requieran de ninguna acción por parte de los usuario (los cinturones convencionales han de ser abrochados por el usuario, por lo tanto son protecciones activas).
No obstante, los cinturones automáticos estaban expuestos a fallos mecánicos (en el caso de los cinturones automáticos motorizados), y en algunos diseños el cinturón dejaba de ser efectivo si la puerta se abría como consecuencia de un accidente. Además, estos eran solo de dos puntos (no iba de un extremo de la cintura al otro y de ahí al hombro, sino que de cintura a hombro, es decir solo sostenía al pasajero cruzándose el cinturón sobre el en forma diagonal), por lo tanto si el sistema era manual era más seguro, en especial si el auto estuviera equipado con bolsas de aire.
Se dejaron de utilizar casi por completo en la década de 1990, con la introducción masiva de la bolsa de aire; que es muy superior siempre que se use con el cinturón de seguridad colocado correctamente.
Cinturones ergonómicos[editar]
También llamados soportes de espalda o cinturones abdominales", fueron usados originalmente en terapias médicas de rehabilitación. Posteriormente, las fajas de seguridad han sido usadas por atletas en el levantamiento de pesas. Recientemente, se ha popularizado y existen en el mercado más de 70 tipos de cinturones.
En teoría, el cinturón es usado para reducir la fuerza sobre la espina dorsal, incrementar la presión abdominal, mantener alineada la espalda y reducir los esfuerzos mecánicos durante el levantamiento. También, para recordarle al trabajador el evitar malas posturas, levantar cargas pesadas, entre otros. En respuesta al incremento de trabajadores que confían en los cinturones ergonómicos como elemento preventivo de lesiones por levantamiento de cargas, los Centros de Control y Prevención de Enfermedades, pertenecientes al Instituto Nacional de Salud y Seguridad Ocupacional de Estados Unidos, realizó entre abril de 1996 a abril de 1998 un estudio para determinar de manera estadística la efectividad de este elemento. Dicho estudio no encontró evidencias que hagan recomendaciones de cinturones ergonómicos como medida de prevención de lesiones y dolor de espalda en pacientes que manipulan objetos pesados,en este se entrevistaron a 9.377 empleados de 160 almacenes los cuales estaban encargados del manejo de carga.
Algunos de los resultados del estudio fueron:
No hubo diferencia estadística significativa entre el porcentaje de enfermedades de espalda entre los trabajadores que usaron el cinturón todos los días (3.38 % casos) y los trabajadores que nunca lo usaron o lo usaron una o dos veces al mes (2.76 % de casos).
No hubo diferencia estadística significativa entre los casos de dolor de espalda reportado por los trabajadores quienes usaron el cinturón cada día (17.1%) y los casos de dolor de espalda reportado por los trabajadores que no lo usaron más de una o dos veces al mes (17.5 %).
Las conclusiones finales del estudio son:
Los cinturones ergonómicos no deberían ser consideradas como equipo de protección personal.
Los cinturones ergonómicos no deberían ser recomendados para su uso en situaciones ocupacionales.
El Instituto Nacional de Salud y Seguridad Ocupacional de Estados Unidos (NIOSH) basa sus conclusiones en los siguientes hallazgos:
El uso de los cinturones ergonómicos puede producir esfuerzos al sistema cardiovascular.
El uso de fajas de seguridad limita la movilidad y puede reducir la flexibilidad y elasticidad de los músculos y tendones, contribuyendo, potencialmente, a las lesiones de espalda.

Ha recibido 670 puntos

Vótalo:

MÁQUINA DE VAPOR (1774)

34. MÁQUINA DE VAPOR (1774)

https://www.youtube.com/watch?v=k2UAR60Z_bY

Una máquina de vapor es un motor de combustión externa que transforma la energía térmica de una cantidad de agua en energía mecánica. Este ciclo de trabajo se realiza en dos etapas: Se genera vapor de agua por el calentamiento en una caldera cerrada herméticamente, lo cual produce la expansión... Ver mas
Una máquina de vapor es un motor de combustión externa que transforma la energía térmica de una cantidad de agua en energía mecánica. Este ciclo de trabajo se realiza en dos etapas:
Se genera vapor de agua por el calentamiento en una caldera cerrada herméticamente, lo cual produce la expansión del volumen de un cilindro empujando un pistón. Mediante un mecanismo de biela-manivela, el movimiento lineal alternativo del pistón del cilindro se transforma en un movimiento de rotación que acciona, por ejemplo, las ruedas de una locomotora o el rotor de un generador eléctrico. Una vez alcanzado el final de carrera el émbolo retorna a su posición inicial y expulsa el vapor de agua utilizando la energía cinética de un volante de inercia.
El vapor a presión se controla mediante una serie de válvulas de entrada y salida que regulan la renovación de la carga; es decir, los flujos del vapor hacia y desde el cilindro.
El motor o máquina de vapor se utilizó extensamente durante la Revolución Industrial, en cuyo desarrollo tuvo un papel relevante para mover máquinas y aparatos tan diversos como bombas, locomotoras, motores marinos, entre otros. Las modernas máquinas de vapor utilizadas en la generación de energía eléctrica no son ya de émbolo o desplazamiento positivo como las descritas, sino que son turbomáquinas; es decir, son atravesadas por un flujo continuo de vapor y reciben la denominación genérica de turbinas de vapor. En la actualidad la máquina de vapor alternativa es un motor muy poco usado salvo para servicios auxiliares, ya que se ha visto desplazado especialmente por el motor eléctrico en la maquinaria industrial y por el motor de combustión interna en el transporte.
Índice [ocultar]
1 Evolución
1.1 Máquina de expansión
1.2 Primeras tentativas
2 Referencias
3 Enlaces externos:
Evolución[editar]

Tren de vapor.
Artículo principal: Historia de la máquina de vapor
En la máquina de vapor se basa la Primera Revolución Industrial que, desde fines del siglo XVIII en Inglaterra y hasta casi mediados del siglo XIX, aceleró portentosamente el desarrollo económico de muchos de los principales países de la Europa Occidental y de los Estados Unidos. Solo en la interfase que medió entre 1890 y 1930 la máquina a vapor impulsada por hulla dejó lugar a otros motores de combustión interna: aquellos impulsados por hidrocarburos derivados del petróleo.
Muchos han sido los autores que han intentado determinar la fecha de la invención de la máquina de vapor atribuyéndola a tal o cual inventor; intento que había sido en vano, ya que la historia de su desarrollo estaba plagada de nombres propios. Desde la recopilación de Herón hasta la sofisticada máquina de James Watt, son multitud las mejoras que en Inglaterra y especialmente en el contexto de una incipiente Revolución Industrial en los siglos XVII y XVIII condujeron sin solución de continuidad desde los rudimentarios primeros aparatos sin aplicación práctica a la invención del motor universal que llegó a implantarse en todas las industrias y a utilizarse en el transporte, desplazando los tradicionales motores, como el animal de tiro, el molino o la propia fuerza del hombre. Jerónimo de Ayanz y Beaumont, militar, pintor, cosmógrafo y músico, pero, sobre todo, inventor español registró en 1606 la primera patente de una máquina de vapor moderna, por lo que se le puede atribuir la invención de la máquina de vapor. El hecho de que el conocimiento de esta patente sea bastante reciente hace que este dato lo desconozca la gran mayoría de la gente.
Máquina de expansión[editar]

Animación del funcionamiento de la máquina de Newcomen.
Auspiciado por Joseph Black, ocupado en las investigaciones que le conducirían al descubrimiento del calor latente, James Watt se propuso mejorar la máquina de Newcomen, descubriendo en el curso de sus experimentos que el vapor era una reserva de calor mucho más vasta que el agua y comprendiendo que era necesario limitar todas las pérdidas de calor que se producían en la artesanal máquina de Newcomen para disminuir el consumo de combustible, principal inconveniente de estas máquinas. Analizando el problema identificó las pérdidas debidas al propio cilindro, a la práctica de enfriar el vapor para lograr el vacío necesario para mover la máquina y a la presión residual del vapor. En sus experimentos posteriores, verdaderos trabajos científicos, llegó a la conclusión de que el cilindro debía mantenerse a la misma temperatura.
Según sus palabras, mientras daba un paseo un espléndido viernes por la tarde y meditaba sobre la máquina, una idea le vino a la cabeza: «como el vapor es un cuerpo elástico se precipitará en el vacío, y, si se comunicara el cilindro con un depósito exhausto, se precipitaría en su interior donde podría condensarse sin enfriar el cilindro». Sin embargo, el desarrollo y perfeccionamiento del condensador separado dejó a Watt en la ruina y en 1765 se vio obligado a buscar empleo y abandonar su trabajo hasta que, en 1767, John Roebuck accedió a financiar sus experimentos y la explotación comercial de la máquina a cambio de las dos terceras partes de los beneficios de la patente que se obtuviera. En 1768 Watt construyó un modelo que operaba de manera satisfactoria, aún imperfecta, y se presentó el año siguiente la solicitud de la patente. Tras diferentes avatares económicos, Roebuck se desprendió de su parte del negocio en favor de Matthew Boulton y juntos Boulton & Watt finalmente llevarían a la práctica la invención de Watt y otros perfeccionamientos.
La primera máquina se construyó en Kinneil, cerca de Boroughstoness en 1774. A partir de entonces la historia de la máquina de vapor será la de la firma Boulton & Watt, y casi todas las mejoras que se introduzcan en ella serán obra del propio Watt; entre otras, el paralelogramo de Watt, la expansión del vapor, la máquina de doble efecto (en la que el vapor actúa alternativamente sobre ambas caras del pistón), etc.

Máquina de vapor de Watt, procedente de la Fábrica Nacional de Moneda y Timbre, expuesta en el vestíbulo de la Escuela Técnica Superior de Ingenieros Industriales de Madrid.
Primeras tentativas[editar]

Locomóvil de vapor.
No se sabe a ciencia cierta si aquellas invenciones no pasaron de ser meros juguetes y, aunque se ha supuesto que fueron empleadas para mover objetos en los templos durante los rituales, no deja de sorprender el hecho de que desde los tiempos de Herón no se hayan encontrado evidencias de que el vapor se haya utilizado con un propósito práctico, aunque el conocimiento del poder del vapor no llegara a perderse como demuestra la descripción de Malmesbury del órgano de Reims que en 1120 se hacía sonar por el aire que escapaba de un depósito en el que era comprimido por "agua calentada".
Entre las reliquias de la civilización egipcia encontramos el primer registro conocido de una máquina de vapor en el manuscrito de Herón de Alejandría titulado Spiritalia seu Pneumatica. Los aparatos allí descritos no se sabe con certeza si fueron obra del ingenio de Herón, porque él mismo dice en su obra que su intención no es otra que recopilar las máquinas que ya eran conocidas y añadir las inventadas por él. Nada en el texto indica quién pudo ser el artífice de los dispositivos descritos y se sospecha que muchos puedan ser, en realidad, obra de Ctesibio, de quien Herón fue pupilo.
La proposición 11 de Pneumatica describe un altar hueco parcialmente, lleno de agua, sobre el que se halla una figura en cuyo interior hay un tubo que termina sumergido en el agua. Al encender un fuego sobre el altar, el aire de su interior se calienta impulsando el agua por el tubo, que termina vertiéndose a través de la figura, simulando una libación que finalmente sofoca el fuego. En la proposición 37 va un poco más allá y describe un mecanismo animado por el fuego para la apertura y el cierre automáticos de las puertas de un templo. En otras proposiciones describe mecanismos similares e incluso dos motores a reacción, uno por aire caliente y otro por vapor de agua, para hacer girar las figuras de un altar.
En 1825 el superintendente del Archivo de Simancas descubrió una publicación de 1695 que relataba que en 1543 Blasco de Garay, oficial de la marina española en el reinado de Carlos I, intentó impulsar un barco con ruedas de palas movidas por una máquina de vapor. Del supuesto motor no se tienen datos, pero si fuera cierto, el intento hubiera sido la primera vez que una máquina de vapor se utilizara con un propósito práctico.
En 1601, Giovanni Battista della Porta describe un aparato para elevar el agua por medio del fuego, similar al descrito por Herón pero empleando vapor de agua para impulsar el líquido, y en 1615 Salomón de Caus describe un aparato similar para hacer funcionar una fuente. Pero la primera patente de la que se tiene constancia documental es de Jerónimo de Ayanz y Beaumont, que en 1606 registra1 una máquina de vapor utilizada con éxito para el desagüe de las minas de plata de Guadalcanal.
El común denominador de todos estos intentos es un tubo sumergido hasta prácticamente el fondo del recipiente de agua por donde ésta asciende al incrementarse la presión en la superficie libre del líquido, trabajos directamente relacionados con los estudios teóricos de Galileo, Torricelli, Pascal y Von Guericke sobre la presión atmosférica que condujeron a mediados del siglo XVII al abandono de la teoría del horror vacui.
La primera máquina fue inventada por Edward Somerset, segundo marqués de Worcester, en 1663, y por su descripción es muy similar, conceptualmente, a la fuente de Caus, si bien de la máquina de Somerset se construyó un modelo en Vauxhall (cerca de Londres) en el castillo Rawlan en torno a 1665, con el propósito de elevar el agua a los pisos superiores de la construcción. Con las especificaciones técnicas escritas y las huellas dejadas en los muros del castillo, Dircks —biógrafo de Somerset— pudo reconstruir la máquina construida en Vauxhall.
Sin embargo, Somerset no pudo atraer los capitales necesarios para producir y vender sus máquinas y murió en la pobreza. Este es, posiblemente, el hecho que hace que se haya atribuido a Thomas Savery la invención de la máquina de Somerset, sobre la que obtuvo una patente en 1698. Conociendo, según afirman varios autores, los trabajos de su predecesor y en el que influyó, sin duda, el proselitismo realizado por Savery, quien no dejó pasar ocasión para mostrar su máquina. Entre ambos hay que mencionar a Samuel Morland, maestro mecánico en la corte de Carlos II de Inglaterra, y residente en Vauxhall, que construyó y patentó máquinas diversas, entre ellas versiones mejoradas de la máquina de Somerset, sugiriendo Hutton que, en realidad, Savery pudo tener un mayor conocimiento de los trabajos de Morland que los del propio Somerset.
A pesar de todo, la máquina de Savery se introdujo en las minas inglesas de forma muy limitada por el riesgo de explosión debido a un incremento incontrolado de la presión en la máquina. Desaguliers relata que un trabajador ignorante de la naturaleza de la máquina, a la que él había añadido una válvula de seguridad inventada años antes por Denis Papin, «...colgó el peso en el extremo de la romana para obtener más vapor y trabajar más deprisa y añadió además un hierro muy pesado con consecuencias fatales, el vapor no fue capaz de levantar semejante contrapeso y acumulándose en el interior de la caldera provocó una gran explosión que acabó con la vida del pobre hombre». Probablemente sea éste el primer accidente laboral con una máquina de vapor del que se tiene constancia.
A diferencia de los dispositivos anteriores, en los que el vapor actúa sobre la propia superficie libre del agua para impulsarla, Huygens diseña en 1680 un aparato de pistón en el que el fluido es el aire caliente producido en una explosión que al enfriarse y contraerse arrastra el émbolo, elevando un peso. Años más tarde Papin (1690) sustituye el aire por vapor de agua e, incluso, en una modificación posterior (1695) diseña un horno y generador de vapor de gran eficiencia, con el que logra importantes ahorros de combustible y hasta cuatro golpes del pistón por minuto. Sin saberlo, Papin se encontraba muy cerca de desarrollar la máquina de vapor. Sin embargo, en 1705 Leibniz le hace llegar un dibujo de la máquina de Savery y, dos años más tarde, diseña un nuevo tipo de máquina para elevar el agua, modificación de la de Savery, en la que abandona el modelo de Huygens.

Ha recibido 666 puntos

Vótalo:

TELEVISIÓN (1844/1925)

35. TELEVISIÓN (1844/1925)

https://www.youtube.com/watch?v=zwceieLHQso

La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia que emplea un mecanismo de difusión. La transmisión puede ser efectuada por medio de ondas de radio, por redes de televisión por cable, televisión por satélite o IPTV, los que existen en... Ver mas
La televisión es un sistema para la transmisión y recepción de imágenes en movimiento y sonido a distancia que emplea un mecanismo de difusión. La transmisión puede ser efectuada por medio de ondas de radio, por redes de televisión por cable, televisión por satélite o IPTV, los que existen en modalidades abierta y pago. El receptor de las señales es el televisor.
La palabra «televisión» es un híbrido de la voz griega τῆλε (tēle, «lejos») y la latina visiōnem (acusativo de visiō «visión»). El término televisión se refiere a todos los aspectos de transmisión y programación de televisión. A veces se abrevia como TV. Este término fue utilizado por primera vez en 1900 por Constantin Perskyi en el Congreso Internacional de Electricidad de París (CIEP). La televisión es el medio de comunicación de masas por excelencia, de manera que la reflexión filosófica sobre ellos, se aplica a ésta.
El Día Mundial de la Televisión se celebra el 21 de noviembre en conmemoración de la fecha en la que se celebró el primer Foro Mundial de Televisión en las Naciones Unidas, en 1996.

Televisor Braun HF 1, un modelo alemán de los años 1950.
Los servicios de provisión de contenidos en la modalidad de vídeo sobre demanda y/o internet streaming no se clasifican como servicios de televisión. La aparición de televisores que pueden conectarse a Internet en los últimos años de la primera década del siglo XXI abre la posibilidad de la denominada televisión inteligente en donde se mezclan y conjugan contenidos de la transmisión convencional (broadcast) con otros que llegan vía Internet.
Índice [ocultar]
1 Historia
1.1 Primeros desarrollos
1.2 Televisión electrónica
1.2.1 Captación de imagen
1.2.2 La señal de vídeo
1.3 El desarrollo de la TV
1.3.1 La televisión en color
1.3.1.1 Sistemas actuales de Televisión en Color
1.3.2 La alta definición
1.3.2.1 La relación de aspecto
1.3.2.2 El PALplus
1.3.3 La digitalización
2 Tipos de televisión
2.1 Difusión analógica
2.2 Difusión digital
2.2.1 Televisión terrestre
2.3 Televisión por cable
2.4 Televisión por satélite
2.5 Televisión IP (IPTV)
2.6 La televisión de 3D
3 Tipos de televisores
3.1 Funcionalidades
4 Véase también
4.1 Emisiones televisivas
5 Referencias
6 Bibliografía
7 Enlaces externos
Historia[editar]
Artículo principal: Historia de la televisión
El concepto de televisión (visión a distancia) se puede rastrear hasta Galileo Galilei y su telescopio. Sin embargo no es hasta 1884, con la invención del Disco de Nipkow de Paul Nipkow cuando se hiciera un avance relevante para crear un medio. El cambio que traería la televisión tal y como hoy la conocemos fue la invención del iconoscopio de Vladímir Zvorykin y Philo Taylor Farnsworth. Esto daría paso a la televisión completamente electrónica, que disponía de una tasa de refresco mucho mejor, mayor definición de imagen y de iluminación propia.
Primeros desarrollos[editar]
En los orígenes de la televisión se expusieron distintas soluciones mecánicas, como el disco de Nipkow, en 1884; sin embargo, se desecharon estos sistemas mecánicos en beneficio de los sistemas de captación totalmente electrónicos actuales.
En 1925 el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados por 2 mm.
Las primeras emisiones públicas de televisión las efectuó la BBC One en Inglaterra en 1936 la TF1 de Francia en 1935; y la CBS y NBC en Estados Unidos en 1930. En ambos casos se utilizaron sistemas mecánicos y los programas no se emitían con un horario regular.
La primera emisora con programación y horario regular fue creada en 1930 en Berlín por Manfred von Ardenne. En 1928, von Ardennse hizo cargo de su herencia con control total sobre cómo podría gastarse, y estableció su laboratorio de investigación privada Forschungslaboratorium für Elektronenphysik,1 en Berlin-Lichterfelde, para llevar a cabo su propia investigación en tecnología de radio y televisión y microscopía electrónica. Inventó el microscopio electrónico de barrido.2 3 En la Muestra de Radio de Berlín en agosto de 1931, Ardenne dio al mundo la primera demostración pública de un sistema de televisión utilizando un tubo de rayos catódicos para transmisión y recepción. (Ardenne nunca desarrollaron un tubo de cámara, usando la CRT en su lugar como un escáner de punto volante para escanear diapositivas y película.)4 5 6 Ardenne logra su primera transmisión de imágenes de televisión de 24 de diciembre de 1933, seguido de pruebas para un servicio público de televisión en 1934. el primer servicio mundial de televisión electrónicamente escaneada comenzó en Berlín en 1935, que culminó con la emisión en directo de los Juegos Olímpicos de Berlín 1936 desde Berlín a lugares públicos en toda Alemania.7 8
Las emisiones con programación se iniciaron en Inglaterra en 1936, y en Estados Unidos el día 30 de abril de 1939, coincidiendo con la inauguración de la Exposición Universal de Nueva York. Las emisiones programadas se interrumpieron durante la Segunda Guerra Mundial, reanudándose cuando terminó.
Televisión electrónica[editar]
En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores, aunque los televisores eran de pantalla pequeña y muy caros. Estas emisiones fueron posibles por el desarrollo del tubo de rayos catódicos y el iconoscopio.
Captación de imagen[editar]
El iconoscopio está basado en el principio de emisión fotoeléctrica: la imagen se proyecta sobre un mosaico formado por células fotoeléctricas que emiten electrones que originan la señal de imagen. Se usó en Estados Unidos entre 1936 y 1946.
El vidicón es un tubo de 2,2 cm de diámetro y 13,3 cm de largo basado en la fotoconductividad de algunas sustancias. La imagen óptica se proyecta sobre una placa conductora que, a su vez, es explorada por el otro lado mediante un rayo de electrones muy fino.
El plumbicón está basado en el mismo principio que el vidicón, sin embargo, su placa fotoconductora está formada por tres capas: la primera, en contacto con la placa colectora, y la tercera están formadas por un semiconductor; la segunda, por óxido de plomo. De este modo, se origina un diodo que se halla polarizado inversamente; debido a ello, la corriente a través de cada célula elemental, en ausencia de luz, es extraordinariamente baja y la sensibilidad del plumbicón, bajo estas características, muy elevada.
La señal de vídeo[editar]
Artículo principal: Señal de vídeo
La señal de vídeo es una señal eléctrica variable que contiene diferentes tensiones dependiendo de la luminosidad de la imagen a transmitir, y señales de sincronismo de línea y cuadro. Es una señal transducida de la imagen contiene la información de ésta de forma analógica, pero es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación. En los sistemas empleados la tensión varía entre 0 y 1 V ( 0,7 para la señal de imagen y 0,3 para sincrónicos))
La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color (en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300.
La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en la mayoría de países europeos y africanos 625 líneas y en gran parte de Asia y América 525 por cada cuadro) agrupadas en dos campos, las líneas impares y las pares de cada cuadro. A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir, cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal (modernamente con la TV en color también se añade información sobre la dominante del color).
La codificación de la imagen se realiza entre 0 V para el negro y 0,7 V para el blanco. Para los sincronismos se incorporan pulsos de -0,3 V, lo que da una amplitud total de la forma de onda de vídeo de 1 V. Los sincronismos verticales están constituidos por una serie de pulsos de -0,3 V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada uno de ellos. El sonido, llamado audio, es tratado por separado en toda la cadena de producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada de transportar la imagen.
El desarrollo de la TV[editar]

Control Central en un centro emisor de TV.

Cámaras en un plató de TV.
Es a finales del siglo XX cuando la televisión se convierte en una verdadera bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a muchos países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo.
La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción.
En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitían el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos.
El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.
La televisión en color[editar]
Artículo principal: Televisión en color

NTSC
PAL, o cambiando a PAL
SECAM
Sin información
Distribución de los sistemas de TV en el mundo.
Ya en 1928 se desarrollaron experimentos de la transmisión de imágenes en color en los cuales también tomo parte el ingeniero escocés John Logie Baird. En 1940, el ingeniero mexicano del Instituto Politécnico Nacional Guillermo González Camarena desarrolló y patentó, tanto en México como en Estados Unidos, un Sistema Tricromático Secuencial de Campos. En 1948, el inventor estadounidense Peter Goldmark, quien trabajaba para Columbia Broadcasting System, basándose en las ideas de Baird y González Camarena, desarrolló un sistema similar llamado Sistema Secuencial de Campos, que la empresa adquirió para sus transmisiones televisivas.
Entre los primeros sistemas de televisión en color desarrollados, estuvo un sistema con transmisión simultánea de las imágenes de cada color con receptor basado en un tubo electrónico denominado trinoscope (trinoscopio, en español) desarrollado por la empresa Radio Corporation Of America (RCA).9 Las señales transmitidas por este sistema ocupaban tres veces más espectro radioeléctrico que las emisiones monocromáticas y, además, era incompatible con ellas a la vez que muy costoso. El elevado número de televisores en blanco y negro que ya había en Estados Unidos, exigía que el sistema de color que se desarrollara fuera compatible con los receptores monocromáticos. Esta compatibilidad debía realizarse en ambos sentidos, de modo que las emisiones en color fueran recibidas en receptores para blanco y negro y a la inversa. Este sistema fue abandonado.
Para el desarrollo de sistemas viables de televisión en color, surgieron los conceptos de luminancia y de crominancia. La primera representa la información del brillo de la imagen, lo que corresponde a la señal básica en blanco y negro, mientras que la segunda es la información del color. Estos conceptos habían sido expuestos anteriormente por el ingeniero francés Georges Valensi en 1938, cuando creó y patentó un sistema de transmisión de televisión en color, compatible con equipos para señales en blanco y negro.
En 1950, Radio Corporation of America desarrolló un nuevo tubo de imagen con tres cañones electrónicos, implementados en un solo elemento, que emitían haces que chocaban contra pequeños puntos de fósforo de color, llamados luminóforos, mediante la utilización de una máscara de sombras que permitía prescindir de los voluminosos trinoscopios, anteriormente desarrollados por la empresa. Los electrones de los haces al impactar contra los luminóforos emiten luz del color primario (azul, rojo y verde) correspondiente que mediante la mezcla aditiva genera el color original. En el emisor (la cámara) se mantenían los tubos separados, uno por cada color primario. Para la separación, se hacen pasar los rayos luminosos que conforman la imagen por un prisma dicroico que filtra cada color primario a su correspondiente captador.
Sistemas actuales de Televisión en Color[editar]

Barras de color EBU vistas en un monitor de forma de onda y un vectoscopio.
El primer sistema de televisión en color que respetaba la doble compatibilidad con la televisión monocroma fue desarrollado en 1951 por la empresa estadounidense Hazeltine Corporation, bajo la supervisión de Arthur Loughren, vicepresidente de la empresa y Charles Hirsch, Ingeniero Jefe de la División de Investigación. Este sistema fue adoptado en 1953 por la Federal Communications Commission (Comisión Federal de Comunicaciones de Estados Unidos) y se conoció como NTSC.10 El sistema tuvo éxito y se extendió a buena parte de los países americanos y algunos países asiáticos, como Japón.
Las señales básicas del sistema NTSC son la luminancia (Y) y las componentes de diferencia de color, R-Y y B-Y (es decir el rojo menos la luminancia y el azul menos la luminancia). Este par de componentes permite dar un tratamiento diferenciado al color y al brillo. El ojo humano es mucho más sensible a las variaciones y definición del brillo que a las del color y esto hace que los anchos de banda de ambas señales sean diferentes, lo cual facilita su transmisión ya que ambas señales se deben de implementar en la misma banda cuyo ancho es ajustado.
El sistema NTSC emplea dos señales portadoras de la misma frecuencia para los componentes de diferencia de color, aunque desfasadas en 90º, moduladas con portadora suprimida por modulación de amplitud en cuadratura. Al ser sumadas, la amplitud de la señal resultante indica la saturación del color y la fase es el tinte o tono del mismo. Esta señal se llama de crominancia. Los ejes de modulación, denominados I (en fase) y Q (en cuadratura) están situados de tal forma que se cuida la circunstancia de que el ojo es más sensible al color carne, esto es que el eje I se orienta hacia el naranja y el Q hacia el color magenta. Al ser la modulación con portadora suprimida, es necesario enviar una ráfaga o salva de la misma para que los generadores del receptor puedan sincronizarse con ella. Esta ráfaga suele ir en el pórtico anterior o inicio del pulso de sincronismo de línea. La señal de crominancia se suma a la de luminancia componiendo la señal total de la imagen. Las modificaciones en la fase de la señal de vídeo cuando ésta es transmitida producen errores de tinte.
El sistema de televisión cromática NTSC fue la base de la cual partieron otros investigadores, principalmente europeos. En Alemania un equipo dirigido por el ingeniero Walter Bruch desarrolló un sistema que subsanaba los errores de fase, y que fue denominado PAL (Phase Altenating Line, Línea de Fase Alternada, por sus siglas en inglés). Para lograr este cometido, la fase de la subportadora se alterna en cada línea. La subportadora que modula la componente R-Y, que en el sistema PAL se llama V, tiene una fase de 90º en una línea y de 270º en la siguiente. Esto hace que los errores de fase que se produzcan en la transmisión (y que afectan igual y en el mismo sentido a ambas líneas) se compensen a la representación de la imagen al verse una línea junto a la otra. Si la integración de la imagen para la corrección del color la realiza el propio ojo humano, entonces el sistema se denomina PAL S (PAL Simple) y si se realiza mediante un circuito electrónico, es el PAL D (PAL Delay, retardado).
En Francia, el investigador Henri de France desarrolló un sistema diferente, denominado SECAM (Siglas de SÉquentiel Couleur À Mémoire, Color secuencial con memoria, por sus siglas en francés) que basa su actuación en la trasmisión secuencial de cada componente de color que modula en FM de tal forma que en una línea aparece una componente de color y en la siguiente la otra. Luego, el receptor las combina para deducir el color de la imagen. El PAL fue propuesto como sistema de color paneuropeo en la Conferencia de Oslo de 1966. Pero no se llegó a un acuerdo y como resultado, los gobiernos de los países de Europa Occidental, con la excepción de Francia, adoptaron el PAL, mientras que los de Europa Oriental y Francia el SECAM.
Todos los sistemas tienen ventajas e inconvenientes. Mientras que el NTSC y el PAL dificultan la edición de la señal de vídeo por su secuencia de color en cuatro y ocho campos, respectivamente, el sistema SECAM hace imposible el trabajo de mezcla de señales de vídeo.
La alta definición[editar]
Artículo principal: Televisión de alta definición
El sistema de televisión de definición estándar, conocido por la siglas "SD", tiene en su versión digital, una definición de 720x576 píxeles (720 puntos horizontales en cada línea y 576 puntos verticales que corresponden a las líneas activas de las normas de 625 líneas) con un total de 414.720 píxeles. En las normas de 525 líneas se mantienen los puntos por línea pero el número de líneas activas es solo de 480, lo que da un total de píxeles de 388.800 siendo los píxeles levemente anchos en PAL y levemente altos en NTSC.
Se han desarrollado 28 sistemas diferentes de televisión de alta definición. Hay diferencias en cuanto a relación de cuadros, número de líneas y pixeles y forma de barrido. Todos ellos se pueden agrupar en cuatro grandes grupos de los cuales dos ya han quedado obsoletos (los referentes a las normas de la SMPTE 295M, 240M y 260M) manteniéndose otros dos que difieren, fundamentalmente, en el número de líneas activas, uno de 1080 líneas activas (SMPT 274M) y el otro de 720 líneas activas (SMPT 269M).
En el primero de los grupos, con 1080 líneas activas, se dan diferencias de frecuencia de cuadro y de muestras por línea (aunque el número de muestras por tiempo activo de línea se mantiene en 1920) también la forma de barrido cambia, hay barrido progresivo o entrelazado. De la misma forma ocurre en el segundo grupo, donde las líneas activas son 720 teniendo 1280 muestras por tiempo de línea activo. En este caso la forma de barrido es siempre progresiva.
En el sistema de HD de 1080 líneas y 1920 muestras por línea tenemos 2.073.600 pixeles en la imagen y en el sistema de HD de 720 líneas y 1280 muestras por líneas tenemos 921.600 pixeles en la pantalla. En relación con los sistemas convencionales tenemos que la resolución del sistema de 1.080 líneas es 5 veces mayor que el del PAL y cinco veces y media que el del NTSC. Con el sistema de HD de 720 líneas es un 50% mayor que en PAL y un 66% mayor que en NTSC.11
La alta resolución requiere también una redefinición del espacio de color cambiando el espacio de color a Rec.709.
La relación de aspecto[editar]

Televisor antiguo en blanco y negro.
Artículo principal: Relación de aspecto
En la década de 1990 se empezaron a desarrollar los sistemas de televisión de alta definición. Todos estos sistemas, en principio analógicos, aumentaban el número de líneas de la imagen y cambiaban la relación de aspecto (relación entre la anchura y la altura de la imagen) pasando del formato utilizado hasta entonces de 4:3, al de 16:9. Este nuevo formato, más agradable a la vista se estableció como norma, incluso en emisiones de definición estándar. La compatibilidad entre ambas relaciones de aspecto se puede realizar de diferentes formas.
1. Una imagen de 4:3 que sea observada en una pantalla de 16:9 puede presentarse de tres formas diferentes:
Con barras negras verticales a cada lado (pillarbox), con lo que se mantiene la relación de 4:3 pero se pierde parte de la zona activa de la pantalla.
Agrandando la imagen hasta que ocupe toda la pantalla horizontalmente. Se pierde parte de la imagen por la parte superior e inferior de la misma.
Deformando la imagen para adaptarla al formato de la pantalla. Se usa toda la pantalla y se ve toda la imagen, pero con la geometría alterada, ya que los círculos se transforman en elipses con su eje mayor orientado horizontalmente.
2. Una imagen de 16:9 observada en pantallas de 4:3, de forma similar, puede ser presentada en tres formas:
Con barras horizontales arriba y abajo de la imagen (letterbox). Se ve toda la imagen pero se pierde tamaño de pantalla. Hay dos formatos de letterbox (13:9 y 14:9) y se usa uno u otro, dependiendo de la parte visible de la imagen observada: cuanto más grande se haga, más se recorta.
Agrandando la imagen hasta ocupar toda la pantalla verticalmente, perdiéndose las partes laterales de la imagen.
Deformando la imagen para adaptarla a la relación de aspecto de la pantalla. Como en el caso de la relación de 4:3 la geometría es alterada, ya que los círculos se convierten en elipses con su eje mayor orientado verticalmente.11
El PALplus[editar]
Artículo principal: PALplus
En Europa occidental, y demás países donde se utiliza el sistema PAL, se desarrolló, con apoyo de la Unión Europea, un formato intermedio entre la alta definición y la definición estándar denominado PALplus pero no logró ser implantado. El PALplus fue una extensión del estándar PAL para transmitir imágenes con relación de 16:9 sin tener que perder resolución vertical. En un televisor con relación de aspecto 4:3, se recibe una imagen con franjas negras en la parte superior e inferior de la misma con 432 líneas activas. Un emisor PALplus enviaba información adicional para rellenar las franjas negras llegando a 576 líneas de resolución vertical. Mediante señales auxiliares que iban en las líneas del intervalo de sincronismo vertical, se indicaba al receptor PALplus si el barrido de la imagen era progresivo o entrelazado. El sistema se amplió con el llamado "Colorplus" que mejoraba la decodificación del color.
La digitalización[editar]

Televisión Digital Terrestre en el mundo.
A finales de los años 1980 se empezaron a desarrollar sistemas de digitalización. La digitalización en la televisión tiene dos partes bien diferenciadas. Por un lado está la digitalización de la producción y por el otro la de la transmisión.
En cuanto a la producción se desarrollaron varios sistemas de digitalización. Los primeros de ellos estaban basados en la digitalización de la señal compuesta de vídeo que no tuvieron éxito. El planteamiento de digitalizar las componentes de la señal de vídeo, es decir la luminancia y las diferencias de color, fue el que resultó más idóneo. En un principio se desarrollaron los sistemas de señales en paralelo, con gruesos cables que precisaban de un hilo para cada bit, pronto se sustituyó ese cable por la transmisión multiplexada en tiempo de las palabras correspondientes a cada una de las componentes de la señal, además este sistema permitió incluir el audio, embebiéndolo en la información transmitida, y otra serie de utilidades.
Para el mantenimiento de la calidad necesaria para la producción de TV se desarrolló la norma de Calidad Estudio CCIR-601. Mientras que se permitió el desarrollo de otras normas menos exigentes para el campo de las producciones ligeras (EFP) y el periodismo electrónico (ENG).
La diferencia entre ambos campos, el de la producción en calidad de estudio y la de en calidad de ENG estriba en la magnitud el flujo binario generado en la digitalización de las señales.
La reducción del flujo binario de la señal de vídeo digital dio lugar a una serie de algoritmos, basados todos ellos en la transformada discreta del coseno tanto en el dominio espacial como en el temporal, que permitieron reducir dicho flujo posibilitando la construcción de equipos más accesibles. Esto permitió el acceso a los mismos a pequeñas empresas de producción y emisión de TV dando lugar al auge de las televisiones locales.
En cuanto a la transmisión, la digitalización de la misma fue posible gracias a las técnicas de compresión que lograron reducir el flujo a menos de 5 Mbit/s, hay que recordar que el flujo original de una señal de calidad de estudio tiene 270 Mbit/s. Esta compresión es la llamada MPEG-2 que produce flujos de entre 4 y 6 Mbit/s sin pérdidas apreciables de calidad subjetiva.
Las transmisiones de TV digital tienen tres grandes áreas dependiendo de la forma de la misma aún cuando son similares en cuanto a tecnología. La transmisión se realiza por satélite, cable y vía radiofrecuencia terrestre, ésta es la conocida como TDT.
El avance de la informática, tanto a nivel del hardware como del software, llevaron a sistemas de producción basados en el tratamiento informático de la señal de televisión. Los sistemas de almacenamiento, como los magnetoscopios, pasaron a ser sustituidos por servidores informáticos de vídeo y los archivos pasaron a guardar sus informaciones en discos duros y cintas de datos. Los ficheros de vídeo incluyen los metadatos que son información referente a su contenido. El acceso a la información se realiza desde los propios ordenadores donde corren programas de edición de vídeo de tal forma que la información residente en el archivo es accesible en tiempo real por el usuario. En realidad los archivos se estructuran en tres niveles, el on line, para aquella información de uso muy frecuente que reside en servidores de discos duros, el near line, información de uso frecuente que reside en cintas de datos y éstas están en grandes librerías automatizadas, y el archivo profundo donde se encuentra la información que está fuera de línea y precisa de su incorporación manual al sistema. Todo ello está controlado por una base de datos en donde figuran los asientos de la información residente en el sistema.
La incorporación de información al sistema se realiza mediante la denominada función de ingesta. Las fuentes pueden ser generadas ya en formatos informáticos o son convertidas mediante conversores de vídeo a ficheros informáticos. Las captaciones realizadas en el campo por equipos de ENG o EFP se graban en formatos compatibles con el del almacenamiento utilizando soportes diferentes a la cinta magnética, las tecnologías existentes son DVD de rayo azul (de Sony), grabación en memorias ram (de Panasonic) y grabación en disco duro (de Ikegami).
La existencia de los servidores de vídeo posibilita la automatización de las emisiones y de los programas de informativos mediante la realización de listas de emisión.
Tipos de televisión[editar]

TV analógica Sony.
Difusión analógica[editar]
Véase también: Frecuencias de los canales de televisión
La televisión hasta tiempos recientes, principios del siglo XXI, fue analógica totalmente y su modo de llegar a los televidentes era mediante el aire con ondas de radio en las bandas de VHF y UHF. Pronto salieron las redes de cable que distribuían canales por las ciudades. Esta distribución también se realizaba con señal analógica, las redes de cable pueden tener una banda asignada, más que nada para poder realizar la sintonía de los canales que llegan por el aire junto con los que llegan por cable. Su desarrollo depende de la legislación de cada país, mientras que en algunos de ellos se desarrollaron rápidamente, como en Inglaterra y Estados Unidos, en otros como España no han tenido casi importancia hasta que a finales del siglo XX la legislación permitió su instalación.
El satélite, que permite la llegada de la señal a zonas muy remotas y de difícil acceso, su desarrollo, a partir de la tecnología de los lanzamientos espaciales, permitió la explotación comercial para la distribución de las señales de televisión. El satélite realiza dos funciones fundamentales, la de permitir los enlaces de las señales de un punto al otro del orbe, mediante enlaces de microondas, y la distribución de la señal en difusión.
Cada uno de estos tipos de emisión tiene sus ventajas e inconvenientes, mientras que el cable garantiza la llegada en estado óptimo de la señal, sin interferencias de ningún tipo, precisa de una instalación costosa y de un centro que realice el embebido de las señales, conocido con el nombre de cabecera. Solo se puede entender un tendido de cable en núcleos urbanos donde la aglomeración de habitantes haga rentable la inversión de la infraestructura necesaria. Otra ventaja del cable es la de disponer de un camino de retorno que permite crear servicios interactivos independientes de otros sistemas (normalmente para otros sistemas de emisión se utiliza la línea telefónica para realizar el retorno). El satélite, de elevado costo en su construcción y puesta en órbita permite llegar a lugares inaccesibles y remotos. También tiene la ventaja de servicios disponibles para los televidentes, que posibilitan la explotación comercial y la rentabilidad del sistema. La comunicación vía satélite es una de las más importantes en la logística militar y muchos sistemas utilizados en la explotación civil tienen un trasfondo estratégico que justifican la inversión económica realizada. La transmisión vía radio es la más popular y la más extendida. La inversión de la red de distribución de la señal no es muy costosa y permite, mediante la red de reemisores necesaria, llegar a lugares remotos, de índole rural. La señal es mucho menos inmune al ruido y en muchos casos la recepción se resiente. Pero es la forma normal de la difusión de las señales de TV.
Difusión digital[editar]

Barras de color EBU en formato YUV.
Artículo principal: Televisión digital
Estas formas de difusión se han mantenido con el nacimiento de la televisión digital con la ventaja de que el tipo de señal es muy robusta a las interferencias y la norma de emisión está concebida para una buena recepción. También hay que decir que acompaña a la señal de televisión una serie de servicios extras que dan un valor añadido a la programación y que en la normativa se ha incluido todo un campo para la realización de la televisión de pago en sus diferentes modalidades.
La difusión de la televisión digital se basa en el sistema DVB Digital Video Broadcasting y es el sistema utilizado en Europa. Este sistema tiene una parte común para la difusión de satélite, cable y terrestre. Esta parte común corresponde a la ordenación del flujo de la señal y la parte no común es la que lo adapta a cada modo de transmisión. Los canales de transmisión son diferentes, mientras que el ancho de banda del satélite es grande el cable y la vía terrestre lo tienen moderado, los ecos son muy altos en la difusión vía terrestre mientas que en satélite prácticamente no existen y en el cable se pueden controlar, las potencias de recepción son muy bajas para el satélite (llega una señal muy débil) mientras que en el cable son altas y por vía terrestre son medias, la misma forma tiene la relación señal-ruido.
Los sistemas utilizados según el tipo de canal son los siguientes, para satélite el DVB-S, para cable el DVB-C y para terrestre (también llamando terrenal) DVB-T. Muchas veces se realizan captaciones de señales de satélite que luego son metidas en cable, para ello es normal que las señales sufran una ligera modificación para su adecuación a la norma del cable.
En EE.UU. se ha desarrollado un sistema diferente de televisión digital, el ATSC Advanced Television System Committee que mientras que en las emisiones por satélite y cable no difiere mucho del europeo, en la TDT es totalmente diferente. La deficiencia del NTSC ha hecho que se unifique lo que es televisión digital y alta definición y el peso de las compañías audiovisuales y cinematográficas ha llevado a un sistema de TDT característico en el que no se ha prestado atención alguna a la inmunidad contra los ecos.
Televisión terrestre[editar]
La difusión analógica por vía terrestre, por radio, está constituida de la siguiente forma; del centro emisor se hacen llegar las señales de vídeo y audio hasta los transmisores principales situados en lugares estratégicos, normalmente en lo alto de alguna montaña dominante. Estos enlaces se realizan mediante enlaces de microondas punto a punto. Los transmisores principales cubren una amplia zona que se va rellenando, en aquellos casos que haya sombras, con reemisores. La transmisión se realiza en las bandas de UHF y VHF, aunque esta última está prácticamente extinguida ya que en Europa se ha designado a la aeronáutica y a otros servicios como la radio digital.
Artículo principal: Televisión Digital Terrestre
La difusión de la televisión digital vía terrestre, conocida como TDT se realiza en la misma banda de la difusión analógica. Los flujos de transmisión se han reducido hasta menos de 6 Mb/s lo que permite la incorporación de varios canales. Lo normal es realizar una agrupación de cuatro canales en un Mux el cual ocupa un canal de la banda (en analógico un canal es ocupado por un programa). La característica principal es la forma de modulación. La televisión terrestre digital dentro del sistema DVB-T utiliza para su transmisión la modulación OFDM Orthogonal Frecuency Division Multiplex que le confiere una alta inmunidad a los ecos, aun a costa de un complicado sistema técnico. La OFDM utiliza miles de portadoras para repartir la energía de radiación, las portadoras mantienen la ortogonalidad en el dominio de la frecuencia. Se emite durante un tiempo útil al que sigue una interrupción llamada tiempo de guarda. Para ello todos los transmisores deben estar síncronos y emitir en paralelo un bit del flujo de la señal. El receptor recibe la señal y espera el tiempo de guarda para procesarla, en esa espera se desprecian los ecos que se pudieran haber producido. La sincronía en los transmisores se realiza mediante un sistema de GPS.
La televisión digital terrestre en los EE. UU., utiliza la norma ATSC Advanced Television System Committee que deja sentir la diferente concepción respecto al servicio que debe tener la televisión y el peso de la industria audiovisual y cinematográfica estadounidense. La televisión norteamericana se ha desarrollado a base de pequeñas emisoras locales que se unían a una retransmisión general para ciertos programas y eventos, al contrario que en Europa donde han primado las grandes cadenas nacionales. Esto hace que la ventaja del sistema europeo que puede crear redes de frecuencia única para cubrir un territorio con un solo canal no sea apreciada por los norteamericanos. El sistema americano no ha prestado atención a la eliminación del eco. La deficiencia del NTSC es una de las causas de las ansias para el desarrollo de un sistema de TV digital que ha sido asociado con el de alta definición.
EL ATSC estaba integrado por empresas privadas, asociaciones e instituciones educativas. La FCC Federal Communication Commission aprobó la norma resultante de este comité como estándar de TDT en EE. UU. el 24 de diciembre de 1996. Plantea una convergencia con los ordenadores poniendo énfasis en el barrido progresivo y en el píxel cuadrado. Han desarrollado dos jerarquías de calidad, la estándar (se han definido dos formatos, uno entrelazado y otro progresivo, para el entrelazado usan 480 líneas activas a 720 píxeles por línea y el progresivo 480 líneas con 640 píxeles por línea, la frecuencia de cuadro es la de 59,94 y 60 Hz y el formato es de 16/9 y 3/4) y la de alta definición (en AD tienen dos tipos diferentes uno progresivo y otro entrelazado, para el primero se usan 720 líneas de 1.280 pixeles, para el segundo 1.080 líneas y 1.920 pixeles por línea a 59,94 y 60 cuadros segundo y un formato de 16/9 para ambos). Han desarrollado dos jerarquías de calidad, la estándar y la de alta definición. Utiliza el ancho de banda de un canal de NTSC para la emisión de televisión de alta definición o cuatro en calidad estándar.
Los sistemas de difusión digitales están llamados a sustituir a los analógicos, se prevé que se dejen de realizar emisiones en analógico, en Europa está previsto el apagón analógico para el 2012 y en EE. UU. se ha decretado el 17 de febrero de 2009 como la fecha límite en la que todas las estaciones de televisión dejen de transmitir en sistema analógico y pasen a transmitir exclusivamente en sistema digital. El día 8 de septiembre de 2008 al mediodía se realizó la primera transición entre sistemas en el poblado de Wilmington, Carolina del Norte.
Televisión por cable[editar]
Artículo principal: Televisión por cable
La televisión por cable surge por la necesidad de llevar señales de televisión y radio, de índole diversa, hasta el domicilio de los abonados, sin necesidad de que éstos deban disponer de diferentes equipos receptores, reproductores y sobre todo de antenas.
Precisa de una red de cable que parte de una «cabecera» en donde se van embebiendo, en multiplicación de frecuencias, los diferentes canales que tienen orígenes diversos. Muchos de ellos provienen de satélites y otros son creados ex profeso para la emisión por cable.
La ventaja del cable es la de disponer de un canal de retorno, que lo forma el propio cable, que permite el poder realizar una serie de servicios sin tener que utilizar otra infraestructura.
La dificultad de tender la red de cable en lugares de poca población hace que solamente los núcleos urbanos tengan acceso a estos servicios.
La transmisión digital por cable está basada en la norma DVB-C, muy similar a la de satélite, y utiliza la modulación QAM.
Televisión por satélite[editar]
Artículo principal: Televisión por satélite
La difusión vía satélite se inició con el desarrollo de la industria espacial que permitió poner en órbita geoestacionaria satélites con transductores que emiten señales de televisión que son recogidas por antenas parabólicas.
El alto coste de la construcción y puesta en órbita de los satélites, así como la vida limitada de los mismos, se ve aliviado por la posibilidad de la explotación de otra serie de servicios como son los enlaces punto a punto para cualquier tipo de comunicación de datos. No es desdeñable el uso militar de los mismos, aunque parte de ellos sean de aplicaciones civiles, ya que buena parte de la inversión está realizada con presupuesto militar.
La ventaja de llegar a toda la superficie de un territorio concreto, facilita el acceso a zonas muy remotas y aisladas. Esto hace que los programas de televisión lleguen a todas partes.
La transmisión vía satélite digital se realiza bajo la norma DVB-S, la energía de las señales que llegan a las antenas es muy pequeña aunque el ancho de banda suele ser muy grande.
Televisión IP (IPTV)[editar]
Artículo principal: IPTV
El desarrollo de redes IP administradas, basadas en accesos de los clientes a las mismas mediante XDSL o fibra óptica, que proporcionan gran ancho de banda, así como el aumento de las capacidades de compresión de datos de los algoritmos tipo MPEG, ha hecho posible la distribución de la señal de televisión de forma digital encapsulada en mediante tecnología IP.
Han surgido así, a partir del año 2003, plataformas de distribución de televisión IP (IPTV) soportadas tanto en redes del tipo XDSL, o de fibra óptica para visualización en televisor, como para visualización en computadoras y teléfonos móviles.
Es frecuente emplear de forma equivocada el término IPTV para con cualquier servicio de vídeo que utiliza el Protocolo de Internet IP. En términos formales debe utilizarse únicamente para redes gestionadas de IP. No es el caso de una red de tipo "best-effort" como Internet.
La televisión de 3D[editar]
Artículo principal: Televisión 3D
La visión estereoscópica o estereovisión es una técnica ya conocida y utilizada en la fotografía de principios del siglo XX. A finales de ese mismo siglo el cine en 3D, en tres dimensiones, era ya habitual y estaba comercializado. A finales de la primera década del siglo XXI comienzan a verse los primeros sistemas comerciales de televisión en 3D basados en la captación, transmisión y representación de dos imágenes similares desplazadas la una respecto a la otra y polarizadas. Aunque se experimentó algún sistema sin que se necesitaran gafas con filtros polarizados para ver estas imágenes en tres dimensiones, como el de la casa Philips, los sistemas existentes, basados en el mismo principio que el cine en 3D, precisan de la utilización de filtros de color, color rojo para el ojo derecho y cian para el ojo izquierdo,12
El sistema de captación está compuesto por dos cámaras convencionales o de alta resolución debidamente adaptadas y sincronizadas controlando los parámetros de convergencia y separación así como el monitoreado de las imágenes captadas para poder corregir en tiempo real los defectos propios del sistema. Normalmente se realiza una grabación y una posterior postproducción en donde se corrigen los defectos inherentes a este tipo de producciones (aberraciones, diferencias de colorimetría, problemas de convergencia, etc.).

Cámara de TV en 3D. Disposición vertical.



Vista frontal de una cámara de TV en 3D.



Vista trasera de una cámara de TV en 3D.



Imagen de TV en 3D en una pantalla de TV.

Tipos de televisores[editar]
Artículo principal: Televisor
Se conoce como televisor al aparato electrodoméstico destinado a la recepción de la señal de televisión. Suele constar de un sintonizador y de los mandos y circuitos necesarios para la conversión de las señales eléctricas, bien sean analógicas o digitales, en representación de las imágenes en movimiento en la pantalla y el sonido por los altavoces. Muchas veces hay servicios asociados a la señal de televisión que el televisor debe procesar, como el teletexto o el sistema NICAM de audio.
Desde los receptores mecánicos hasta los modernos televisores planos ha habido todo un mundo de diferentes tecnologías. El tubo de rayos catódicos, que fue el que proporcionó el gran paso en el desarrollo de la televisión, se resiste a desaparecer al no encontrarse, todavía, quien lo sustituya, manteniendo la calidad de imagen y el precio de producción que éste proporciona. Las pantallas planas de cristal líquido o de plasma no han logrado sustituirlo al dar una imagen de inferior calidad y tener un elevado precio, su gran ventaja es la línea moderna de su diseño. Los televisores preparados para la alta definición tampoco están abriéndose paso al carecer de horas de programación en esa calidad y al contentarse el usuario con la calidad de la emisión estándar.
A poco tiempo del llamado «apagón analógico» todavía son escasos los televisores y otros electrodomésticos que se usan en televisión, como grabadores, que incluyen el sintonizador TDT o los decodificadores para la recepción de cable y satélite.
Algunos tipos de televisores
Televisor blanco y negro: la pantalla sólo muestra imágenes en blanco y negro.
Televisor en color: la pantalla es apta para mostrar imágenes en color. (Puede ser CRT, LCD, Plasma o LED)
Televisor pantalla LCD: plano, con pantalla de cristal líquido (o LCD)
Televisor pantalla de plasma: plano, usualmente se usa esta tecnología para formatos de mayor tamaño.
Televisor LED: Plano, con una pantalla constituida por LEDs.
Televisor Holográfico: Proyector que proyecta una serie de imágenes en movimiento sobre una pantalla transparente.
Durante una conferencia de prensa en Berlín, dentro de la feria de muestras industriales y electrónica de consumo IFA 2009, Sony anunció sus planes de presentar avances en la experiencia de visualización 3D para los hogares. Sony se refiere a la tecnología 3D de algunos de sus televisores, como BRAVIA, que además de su pantalla LCD incorporaría un sistema para reproducir contenidos en alta definición, las imágenes 3D se verían mediante unas gafas especiales o sin estas.[cita requerida]
Sony desarrolló la compatibilidad de la tecnología 3D en otros modelos de televisores, además de otras unidades como productos relacionados con Blu-ray, VAIO o la consola de videojuegos PlayStation, de modo que sea posible ver imágenes 3D en una variedad de contenidos multimedia reproducidos desde el televisor del hogar, como películas, series o incluso videojuegos. Aunque empezó como avance aprovechando la feria IFA alemana, en el año 2010 ya salieron a la venta los primeros modelos.
Funcionalidades[editar]
Algunos televisores incluyen funcionalidades como:
Modo hotel:13 bloquea el acceso al menú, para que no se pueda cambiar nada, como descolocar o borrar canales, además de limitar el volumen para que no suba demasiado. También se pueden agregar canales especiales de los hoteles, para ayuda o servicio al cliente.

Ha recibido 659 puntos

Vótalo:

ADOBE/LADRILLOS (7500 a.C)

36. ADOBE/LADRILLOS (7500 a.C)

https://www.youtube.com/watch?v=0xe9q3DVuO0

El adobe, palabra que proviene del árabe al-tub,1 es una pieza para construcción hecha de una masa de barro (arcilla y arena) mezclada con paja, moldeada en forma de ladrillo y secada al sol; con ellos se construyen paredes y muros de variadas edificaciones. La técnica de elaborarlos y su uso... Ver mas
El adobe, palabra que proviene del árabe al-tub,1 es una pieza para construcción hecha de una masa de barro (arcilla y arena) mezclada con paja, moldeada en forma de ladrillo y secada al sol; con ellos se construyen paredes y muros de variadas edificaciones. La técnica de elaborarlos y su uso están extendidos por todo el mundo, encontrándose en muchas culturas que nunca tuvieron relación.
Índice [ocultar]
1 Historia
2 Características
3 Construcción con adobes
4 Construcción antisísmica
5 Véase también
6 Referencias
7 Enlaces externos
Historia[editar]
La más antigua ciudad conocida, Çatalhöyük, en Anatolia, del VII milenio antes de Cristo, tenía las casas construidas con adobes. En el Antiguo Egipto se empleó frecuentemente el adobe, elaborado con limo del Nilo, en la construcción de casas, tumbas (mastabas), fortalezas, e incluso palacios, aunque los egipcios también fueron los primeros en emplear la piedra tallada para erigir templos, pirámides y otras edificaciones monumentales.

Muro de adobe sobre basamento de piedra en una antigua casa de Burgos, España.
En Perú existe la ciudad de barro más grande de América: la ciudadela de Chan Chan (1200-1480) perteneciente a la cultura chimú, así como la Ciudad Sagrada de Caral (3000 - 1800 a.C.) considerada como el asentamiento humano más antiguo de América Latina construido en base a adobes. Así mismo, algunas crónicas del siglo XVI2 recogen que los jefes de los tallanos vivían en palacios construidos con este material.
En España es característico, entre otras de las regiones secas, de Castilla y León donde se añade paja al barro. Las construcciones de adobe se suelen remozar con una capa del mismo barro con lo que dan ese aspecto tan curioso de las casas típicas de Tierra de Campos. También es usual en regiones semi-desérticas de África, América Central y América del Sur (rancho.)
El término “adobe”, en castellano, aunque con la grafía “adoves”, aparece por vez primera ya en 1139-1149, en el llamado “Fuero de Pozuelo de Campos” (hoy Pozuelo de la Orden, en la Provincia de Valladolid).3
En México, Colombia, Ecuador, Perú, Bolivia, Argentina y en el norte y centro de Chile las casas de adobe son aún patrimonio de muchas familias humildes, que conservan esta tradición desde tiempos inmemoriales. Mezclar pasto seco con el barro permite una correcta aglutinación, gran resistencia a la intemperie y evita que los bloques una vez solidificados tiendan a agrietarse. Posteriormente los bloques se adhieren entre sí con barro para levantar muros.
Actualmente algunos arquitectos siguen utilizando muros de adobe en combinación con cimientos, columnas y losas de hormigón debido a sus características. En muchas ciudades y pueblos de Centro y Sur de América la construcción con adobes se mantiene viva aunque amenazada por las imposiciones del mercado formal o por la mala fama que le han hecho los sismos y el mal de Chagas. En Uruguay, el adobe es una de las técnicas tradicionales de construcción que poco a poco fue dejada de lado aunque en los últimos 20 años se han realizado experiencias tanto en Montevideo como en el interior del país.
La reactivación de una arquitectura en adobe en gran medida se debe al ahorro de energía que las edificaciones con este material suelen implicar, en efecto el adobe resulta un excelente aislante térmico motivo por el cual se reducen las demandas de energía para refrescar o caldear las viviendas. Por otra parte, uno de los problemas típicos del adobe es su absorción de la humedad del suelo por capilaridad, para esto una solución bastante frecuente es utilizar un cimiento hidrófugo o impermeable de hasta aproximadamente un metro de altura sobre el nivel del suelo, tal cimiento suele ser de piedras o, más modernamente, de hormigón.
Características[editar]

Mezcla de adobe.
Para evitar que se agriete al secar se añaden a la masa paja, crin de caballo, heno seco, que sirven como armadura. Las dimensiones adecuadas deben ser tales que el albañil pueda manejarlo con una sola mano, normalmente son de proporciones de 1:2 entre el ancho y el largo, variando en su espesor entre 6 y 10 cm, medidas que permiten un adecuado secado. Las proporciones más comunes de encontrar son de 6 x 15 x 30 cm, 10 x 30 x 60 cm, 7 x 20 x 40 cm; esto depende de la región del mundo y sus condiciones.
El agua ablanda el barro seco, por lo que se debe proteger de esta en distintas circunstancias: de aguas de lluvias, infiltraciones por malas instalaciones, inadecuado mantenimiento (al regar exteriores, etc); la protección elemental es hacer aleros de suficiente vuelo hacia la zona desde donde proviene la lluvia y correcta construcción de las fundaciones o cimientos. Se requiere un mantenimiento continuo, que debe hacerse con capas de barro (revoques de barro). No es correcto hacerlo con mortero de cemento, puesto que la capa resultante es poco permeable al vapor de agua y conserva la humedad interior, por lo que se desharía el adobe desde dentro e incluso podría provocar desprendimiento del estuco de mortero de cemento por separación con el muro. Lo mejor para las paredes externas es la utilización de enlucido con base de cal apagada en pasta, con arcilla o arena, para la primera capa, en la segunda, solamente pasta de cal y arena. Para las internas se puede hacer una mezcla de arcilla, arena y agua, o con revoques de terminación fina de tierra estabilizada con arena, a la que se le pueden agregar impermeabilizantes en el agua de amasado.
En países de mano de obra barata es muy económico; permite fabricar uno mismo los materiales para construir su propia casa. Antiguamente, en las temporadas que los labradores no tenían faenas que hacer en el campo, fabricaban adobes, que luego vendían al que quisiera hacerse una casa. De ahí el proverbio: mientras descansa está haciendo adobes.
Actualmente se fabrican de manera más certera con respecto a la composición, y suelen tener un veinte por ciento de arcillas y un ochenta por ciento de arena, eso en función de la composición del suelo, cuanto más arcilloso más arena se agrega, sin agregar paja u otros elementos a la mezcla. Las investigaciones han mostrado que la inclusión de fibras vegetales puede servir como atracción para las termitas y además, si el secado del adobe sin fibras ocurre en la sombra, la retracción es menor.
Tiene una gran inercia térmica, debido a los espesores necesarios para construir, por lo que sirve de regulador de la temperatura interna; en verano conserva el frescor, y durante el invierno el calor.
Frente al tapial, que es semejante pero puesto en obra en masa, con encofrados, tiene la ventaja de que requiere mucho menos tiempo de preparación.

Construcción de un muro de adobes.

Embarrado de una vivienda rural de tierra en el pueblo Los Ceballos (Paysandú, Uruguay).

Casa de Adobe cerca de Aldeanueva de la Vera. Cáceres.
Construcción con adobes[editar]
La construcción con adobes presenta la ventaja de su similitud formal, constructiva y estética con el ladrillo de campo cocido. En caso de disponer de mucha mano de obra, especializada o no, esta técnica es muy adecuada en función de los procesos de fabricación que permiten la integración de gran cantidad de personas durante el pisado y moldeado aunque se debe tener en cuenta aquí es el control durante la producción para minimizar la variación de las dimensiones y la forma irregular de las piezas. Los muros de adobes presentan muy buenas condiciones de aislamiento acústico y térmico debido a las características del material y los espesores utilizados.
Las desventajas de esta técnica están en función del propio proceso de fabricación que puede resultar lento ya que se requieren dos o tres semanas para poder utilizar las piezas en caso de que la producción se haga en obra. El proceso también depende de las áreas de pisado, secado y acopio, que comandarán la continuidad de producción mientras se espera que se sequen las piezas anteriores. Por lo tanto, esta técnica requiere cierta previsión de infraestructura para contar con superficies horizontales y limpias, y zonas protegidas para evitar que el agua de lluvia afecte a la producción.
Las fallas comunes en las construcciones con adobes pueden ser reducidas mediante los controles de la tierra y los estabilizantes utilizados, el dimensionado adecuado de las piezas y los muros, el dimensionado adecuado de la estructura, tanto de la cimentación como del muro portante, o las vigas y pilares y la protección frente a la lluvia y a la humedad natural del terreno. Tanto las ventajas o desventajas se deben tener en cuenta como datos de la realidad pero las condicionantes propias de la obra serán las que determinen la viabilidad de los procesos o no.
Construcción antisísmica[editar]
En América Latina hay ejemplos de que las estructuras de adobe presentan una alta vulnerabilidad sísmica, ya que ha habido comportamientos inadecuados ante las fuerzas inducidas por los terremotos —incluso los temblores moderados de tierra—, derrumbándose de manera súbita. Esto ha producido un gran número de pérdidas humanas e importantes pérdidas económicas, culturales y patrimoniales. Un caso concreto es el terremoto de la ciudad de Cartago en Costa Rica de 1910, después del cual se prohibió la utilización de adobe en las construcciones de dicho país.4 Esto se observa reiteradamente en Latinoamérica, donde el cuidado del patrimonio, en particular de tierra, se encuentra, por lo general, sin el adecuado mantenimiento ni cuidado. Las principales razones de derrumbe y vulnerabilidad sísmica de las construcciones de adobe se debe al nulo mantenimiento, al descuido, a las intervenciones inadecuadas sobre su estructura y sobre todo a las construcciones realizadas de forma precaria o sin el conocimiento adecuado sobre el sistema constructivo, no teniendo en cuenta características básicas de su construcción, como respetar proporciones de altura y espesor, proporciones adecuadas en la mezcla, correctos morteros, entre otros.
El mayor problema para la reparación, mantenimiento y correcta ejecución de las construcciones de adobe es la pérdida de una tradición ancestral, transmitida de generación en generación, generando un vacío en la cultura constructiva, perdiendo el saber hacer y generando problemas que pueden ser fatales, sobre todo en el caso de países sísmicos.
Según las Normas Argentinas para Construcciones Sismorresistentes: Reglamento INPRES - CIRSOC 103: «Existen materiales aptos para lograr construcciones seguras, y materiales no aptos (tales como el adobe), pero de ninguna manera puede hablarse de materiales sismorresistentes».5
Esta situación condujo a que los gobiernos y la población en general hayan favorecido la reconstrucción con bloque, ladrillo y hormigón. Sin embargo, estas viviendas nuevas, aparte de perder su calidad térmica, son más costosas y su edificación en autoconstrucción se hace más difícil. Por esta razón, muchos centros de investigación y agencias de cooperación trabajan para desarrollar construcciones sismorresistentes en adobe que sean saludables y socialmente costeables.
En Colombia y Perú se han desarrollado diversos estudios y técnicas tendentes a obtener piezas de adobe sismorresistentes, prestando especial interés en la adecuada composición y sus dimensiones óptimas, pudiendo utilizarse tanto en nuevas construcciones como en rehabilitación.6

Reparación de construcciones de adobe dañadas por el terremoto de 2010 en Vichuquén, Región del Maule, Chile.

Señalización sobre casa de adobe después del terremoto de 2010 en Chanco, Chile.
En Chile, en el Terremoto de Santiago de 1985 muchas de las construcciones de adobe resultaron gravemente dañadas y durante el terremoto de Chile de 2010, diversas construcciones de este material se derrumbaron o quedaron gravemente dañadas, comunas como San Carlos, Yumbel, Santa Cruz, Talca (casco histórico), quedaron prácticamente en el suelo debido a estos derrumbes, ya que son las construcciones más antiguas de los lugares siniestrados. Sin embargo, muchas de ellas además se derrumbaron y fueron abandonadas por los prejuicios generados a través de los años, desconociendo su real estado constructivo, lo que ha generado una gran alerta en la población y prejuicios sobre el material. Otras se mantienen estoicas esperando su reparación y otras ya han sido reparadas, como en Vichuquén.
Actualmente diversas universidades de Chile, organismos de estado, y oficinas privadas estudian una manera de renovar el adobe y darle propiedades sismorresistentes para mantener la identidad cultural del país. Por otro lado se estudian estrategias aplicadas en los edificios que se han mantenido de pie por siglos sin derrumbarse antes la inmensa cantidad de terremotos de Chile, para aprender de estrategias constructivas tradicionales y del bien hacer de los constructores de tierra.

Ha recibido 658 puntos

Vótalo:

ANTISÉPTICOS (1867)

37. ANTISÉPTICOS (1867)

https://www.youtube.com/watch?v=3ZOWdOabCi4

Los antisépticos (del griego anti, contra, y septicos, putrefactivo) son sustancias antimicrobianas que se aplican a un tejido vivo o sobre la piel para reducir la posibilidad de infección, sepsis o putrefacción. En general, deben distinguirse de los antibióticos que destruyen microorganismos en... Ver mas
Los antisépticos (del griego anti, contra, y septicos, putrefactivo) son sustancias antimicrobianas que se aplican a un tejido vivo o sobre la piel para reducir la posibilidad de infección, sepsis o putrefacción. En general, deben distinguirse de los antibióticos que destruyen microorganismos en el cuerpo, y de los desinfectantes, que destruyen microorganismos existentes en objetos no vivos. Algunos antisépticos son auténticos germicidas, capaces de destruir microbios (bactericidas), mientras que otros son bacteriostáticos y solamente previenen o inhiben su crecimiento. El peróxido de hidrógeno y el yodo son antisépticos.
Índice [ocultar]
1 Características de los antisépticos
2 Funcionamiento
3 Ejemplos
4 Véase también
5 Referencias
6 Enlaces externos
Características de los antisépticos[editar]
Entre las características más comunes de los antisépticos (y desinfectantes) se encuentran:1
Amplio espectro
Poder germicida
Excelente penetración
Selectividad de acción
Efecto rápido y duradero
Actividad en presencia de líquidos y material orgánico.
Funcionamiento[editar]
Para que sea posible el desarrollo de las bacterias debe haber cierta provisión de alimento, humedad, en muchos casos oxígeno, y una temperatura mínima (véase bacteriología). Estas condiciones han sido especialmente estudiadas y aplicadas en relación con la conservación de los alimentos y la antigua práctica del embalsamamiento de cadáveres, que es el más antiguo ejemplo del uso sistemático de antisépticos.
En las primeras investigaciones un punto fundamental era la prevención de la putrefacción, y las investigaciones se dirigían a determinar qué cantidad de un agente debía añadirse a una solución dada para que las bacterias presentes accidentalmente no prosperaran. Pero por varias razones éste era un método inexacto, y hoy en día un antiséptico es valorado por sus efectos sobre cultivos puros de microbios patogénicos determinados, y sobre sus formas vegetativas y esporas. Su estandarización se ha llevado a cabo de varias maneras, y actualmente se toma una solución acuosa de fenol de una fuerza determinada como el estándar con el cual se comparan los otros antisépticos.
Los agentes químicos afectan a los microorganismos mediante 5 mecanismos de acción:1
Desnaturalización de proteínas
Rotura de membrana celular
Eliminación de grupos sulfhidrilos
Antagonista químico
Oxidación
Ejemplos[editar]
Jabones
Los jabones se dividen en dos grupos en función de su composición (véase saponificación). Se conocen como jabones duros los que tienen como base una sal sódica (ácido graso + sodio), resultan útiles para la supresión mecánica de las bacterias en la piel y se preparan en concentración 1:100 a 1:1000. Se conocen como jabones blandos a los que tienen como base una sal potásica (ácido graso + potasio) y actúan sobre la membrana celular bacteriana. Dependiendo de la composición del ácido graso tenemos que los jabones con ácidos grasos saturados son útiles contra bacterias gram-negativas mientras que los jabones con ácidos grasos insaturados son útiles contra las bacterias gram-positivas.1
Alcoholes
Los usados más habitualmente son etanol (60-90 %), propan-1-ol (60-70 %) y propan-2-ol/isopropanol (70-80 %) o mezclas de estos alcoholes. Generalmente se les denomina "alcohol quirúrgico". Se usan para desinfectar la piel antes de aplicar una inyección, a menudo junto con yodina (tintura de yodo) o algún surfactante catiónico (cloruro de benzalconio 0,05 - 0,5 %, clorhexidina 0,2 - 4,0 % o dihidrocloruro de octenidina 0,1 - 2,0 %).
El alcohol etílico al 70 % destruye el 90 % de las bacterias en dos minutos. El alcohol isopropílico es más potente que el etílico, aunque provoca vasodilatación por lo que puede provocar hemorragias excesivas.1
Compuestos de amonio cuaternario
También conocidos como Quats o QAC's, comprenden las sustancias químicas cloruro de benzalconio (BAC), bromuro de cetil trimetilamonio (CTMB), cloruro de cetilpiridinio (Cetrim), cloruro de cetilpiridinio (CPC) y cloruro de bencetonio (BZT). El cloruro de benzalconio se usa en algunos desinfectantes preoperatorios de la piel (concentración del 0,05 - 0,5 %) y toallitas antisépticas. La actividad antimicrobiana de los Quats se inactiva por los surfactantes aniónicos, como los jabones. Otros desinfectantes relacionados son la clorhexidina y la octenidina.
Ácido bórico
Se usa en supositorios para el tratamiento de las infecciones vaginales por hongos, en colirios, y como antiviral para reducir la duración de los resfriados. Ingrediente de cremas para quemaduras. También es frecuente en cantidad ínfima en soluciones para lentes de contacto. Aunque es popularmente conocido como antiséptico, en realidad se trata de un fluido calmante, y las bacterias crecen sin problemas en contacto con él.
Gluconato de clorhexidina
Un derivado de la biguanidina, usado en concentraciones de 0,5 al 4 % solo, o en menor concentración combinado con otros compuestos, como alcoholes. Se usa como antiséptico en la piel y para tratar inflamaciones de las encías (gingivitis). Su acción microbicida es algo lenta, pero continuada. Es un surfactante catiónico, similar a los Quats.
Peróxido de hidrógeno
También llamado agua oxigenada, se usa como solución al 3 % (10 volúmenes) para limpiar y desodorizar heridas y úlceras. Las soluciones de peróxido de hidrógeno al uno o al dos por ciento se usan generalmente en el hogar como cura básica para rasguños, etc. Sin embargo, esta forma menos potente no se recomienda para el cuidado típico de las heridas ya que la fuerte oxidización provoca la formación de cicatrices e incrementa el tiempo de curación. Una ligera limpieza con un jabón suave y agua, o enjuagar el rasguño con suero fisiológico es una opción mejor.
Yodo
Normalmente se usa en una solución alcohólica (llamada tintura de yodo) o en la solución de Lugol como antiséptico pre- y post-operatorio. No se recomienda para desinfectar heridas menores porque induce la formación de cicatrices e incrementa el tiempo de curación, también manchan la piel y pueden generar hipersensibilidad, causar irritación o quemaduras. Una ligera limpieza con un jabón suave y agua, o enjuagar el rasguño con suero fisiológico es una opción mejor. Los nuevos antisépticos con yodo contienen yodopovidona/PVP-I (un yodóforo, complejo de povidona, un polímero soluble en agua, con aniones de triyodado I3-, que contienen aproximadamente un 10% de yodo activo, con el nombre comercial de Betadine), y son bastante mejor tolerados, no afectan negativamente el proceso de curación y dejan un depósito de yodo activo, creando el llamado efecto remanente o persistente.
Las preparaciones iodadas dejan la piel intacta para la preparación quirúrgica. Su efecto oxidante se debe a que se combina de manera irreversible con tirosina y precipita las proteínas bacterianas, además de alterar los ácidos nucleicos y alterar la membrana celular. El Yodo tiene un amplio espectro antimicrobiano ya que afecta a bacterias gram-positivas, bacterias gram-negativas, micobacterias, hongos, virus y protozoarios.1
Merbromina (o Mercurocromo)
Utilizada en medicina como antiséptico de uso tópico en pequeñas heridas superficiales, quemaduras, grietas y rozaduras.2 También en la antisepsia del cordón umbilical3 y en la antisepsia de heridas de difícil cicatrización, como en úlceras neuropáticas y heridas del pie diabético.4
De comercialización común en España, varios países de la UE y muchos países de Iberoamérica (donde su bajo coste es un factor importante). La merbromina no se comercializa en los Estados Unidos desde 1998, cuando la F.D.A. exigió a las empresas manufactureras la aportación de nuevos estudios clínicos o información soporte actualizada de toda una serie de medicamentos a los que por su antigüedad nunca se les habían sido requeridos. No mostrando las empresas farmacéuticas interés en realizar estos nuevos estudios, dados los bajos márgenes comerciales del producto, la F.D.A. retiró el producto de la lista de medicamentos autorizados para la comercialización.5
Dihidrocloruro de octenidina
Un surfactante catiónico derivado del bis-(dihidropiridinil)-decano, usado en concentraciones del 0,1 al 2 %. Es similar en su acción a los Quats, pero tiene un mayor espectro de actividad. La Octenidina está actualmente incrementando su uso en Europa como QAC y substituto de la clorhexidina (debido a su acción lenta y sospechas sobre la impureza carcinógena 4-cloroanilina) en antisépticos basados en agua o alcohol para la piel, mucosa y heridas. En formulaciones acuosas, se potencia a menudo con la adición de 2-fenoxietanol.
Compuestos de Fenol (ácido fénico o ácido carbólico)
El fenol es germicida en solución fuerte, e inhibitorio en soluciones diluidas. Se usa para el lavado aséptico de manos en preoperatorios. Usado en forma de polvo como antiséptico para bebés, espolvoreado en el ombligo para cicatrizarlo. También se usa en enjuagues bucales y pastillas para la garganta, por su efecto analgésico además de antiséptico. Ejemplo: TCP. Otros antisépticos fenólicos son los históricamente importantes, pero hoy día raramente usados (a veces en cirugía dental) son el timol, el obsoleto hexaclorofeno, el todavía usado triclosán y el sodio 3,5-dibromo-4-hidroxibenzenosulfonato (Dibromol).
Cloruro de sodio
Usado como limpiador general, también como enjuague bucal antiséptico. Sólo presenta un débil efecto antiséptico, debido a la hiperosmolaridad de la solución por encima del 0,9 por ciento.
Hipoclorito de sodio
Usado antiguamente diluido, neutralizado y combinado con permanganato de potasio en la solución de Daquin. Actualmente se usa sólo como desinfectante.
Permanganato de potasio
No es tan común como los anteriores, pero es de utilidad para prevenir infecciones por hongos (tiñas) e incluso detenerlas en sus primeras etapas. Tiene gran poder antiséptico.
Solución electrolizada de superoxidación con pH neutro (SES)
Su espectro microbicida es amplio con capacidad micobactericida, viricida y bactericida en menos de 5 minutos y esporicida en 10 minutos. El uso clínico de estas soluciones ha demostrado su eficacia y seguridad así como su potencia al mantener los tejidos libres de infección.6
Bis-(fenilmercurio) monohidrogenborato
Antiséptico obsoleto conteniendo mercurio comercializado bajo el nombre Famosept.
Todos los antisépticos son útiles en las técnicas de curación de enfermería, propiciando una mejoría eficaz para el paciente.

Ha recibido 626 puntos

Vótalo:

HIERRO (3500 a.C.)

38. HIERRO (3500 a.C.)

https://www.youtube.com/watch?v=_UaTaOj-5AY

El hierro o fierro (en muchos países hispanohablantes se prefiere esta segunda forma)1 2 es un elemento químico de número atómico 26 situado en el grupo 8, periodo 4 de la tabla periódica de los elementos. Su símbolo es Fe (del latín fĕrrum)1 y tiene una masa atómica de 55,6 u.3 4 Este metal de... Ver mas
El hierro o fierro (en muchos países hispanohablantes se prefiere esta segunda forma)1 2 es un elemento químico de número atómico 26 situado en el grupo 8, periodo 4 de la tabla periódica de los elementos. Su símbolo es Fe (del latín fĕrrum)1 y tiene una masa atómica de 55,6 u.3 4
Este metal de transición es el cuarto elemento más abundante en la corteza terrestre, representando un 5 % y, entre los metales, solo el aluminio es más abundante; y es el primero más abundante en masa planetaria, debido a que el planeta en su núcleo, se concentra la mayor masa de hierro nativo equivalente a un 70 %. El núcleo de la Tierra está formado principalmente por hierro y níquel en forma metálica, generando al moverse un campo magnético. Ha sido históricamente muy importante, y un período de la historia recibe el nombre de Edad de Hierro. En cosmología, es un metal muy especial, pues es el metal más pesado que puede producir la fusión en el núcleo de estrellas masivas; los elementos más pesados que el hierro solo pueden crearse en supernovas.
Índice [ocultar]
1 Características principales
2 Aplicaciones
2.1 Aceros
2.2 Fundiciones
3 Historia
4 Abundancia y obtención
5 Reservas de hierro en el mundo
6 Compuestos
7 Metabolismo del hierro
8 Isótopos
9 Precauciones
10 Véase también
11 Referencias
12 Enlaces externos
Características principales[editar]

Hierro puro
Es un metal maleable, de color gris plateado y presenta propiedades magnéticas; es ferromagnético a temperatura ambiente y presión atmosférica. Es extremadamente duro y denso.
Se encuentra en la naturaleza formando parte de numerosos minerales, entre ellos muchos óxidos, y raramente se encuentra libre. Para obtener hierro en estado elemental, los óxidos se reducen con carbono y luego es sometido a un proceso de refinado para eliminar las impurezas presentes.
Es el elemento más pesado que se produce exotérmicamente por fusión, y el más ligero que se produce a través de una fisión, debido a que su núcleo tiene la más alta energía de enlace por nucleón (energía necesaria para separar del núcleo un neutrón o un protón); por lo tanto, el núcleo más estable es el del hierro-56 (con 30 neutrones).
Presenta diferentes formas estructurales dependiendo de la temperatura y presión. A presión atmosférica:
Hierro-α: estable hasta los 911 °C. El sistema cristalino es una red cúbica centrada en el cuerpo (bcc).
Hierro-γ: 911 °C - 1392 °C; presenta una red cúbica centrada en las caras (fcc).
Hierro-δ: 1392 °C - 1539 °C; vuelve a presentar una red cúbica centrada en el cuerpo.
Hierro-ε: Puede estabilizarse a altas presiones, presenta estructura hexagonal compacta (hcp).
Hierro-ç: se estabiliza a muy bajas presiones, presenta una estructura octagonal muy compacta
Aplicaciones[editar]
El hierro es el metal duro más usado, con el 95 % en peso de la producción mundial de metal. El hierro puro (pureza a partir de 99,5 %) no tiene demasiadas aplicaciones, salvo excepciones para utilizar su potencial magnético. El hierro tiene su gran aplicación para formar los productos siderúrgicos, utilizando éste como elemento matriz para alojar otros elementos aleantes tanto metálicos como no metálicos, que confieren distintas propiedades al material. Se considera que una aleación de hierro es acero si contiene menos de un 2,1 % de carbono; si el porcentaje es mayor, recibe el nombre de fundición.
El acero es indispensable debido a su bajo precio y tenacidad, especialmente en automóviles, barcos y componentes estructurales de edificios.
Las aleaciones férreas presentan una gran variedad de propiedades mecánicas dependiendo de su composición o el tratamiento que se haya llevado a cabo.
Aceros[editar]
Artículo principal: Acero
Los aceros son aleaciones férreas con un contenido máximo de carbono del 2 %, el cual puede estar como aleante de inserción en la ferrita y austenita y formando carburo de hierro. Algunas aleaciones no son ferromagnéticas. Éste puede tener otros aleantes e impurezas.
Dependiendo de su contenido en carbono se clasifican en los siguientes tipos:
Acero bajo en carbono: menos del 0,25 % de C en peso. Son blandos pero dúctiles. Se utilizan en vehículos, tuberías, elementos estructurales, etcétera. También existen los aceros de alta resistencia y baja aleación, que contienen otros elementos aleados hasta un 10 % en peso; tienen una mayor resistencia mecánica y pueden ser trabajados fácilmente.
Acero medio en carbono: entre 0,25 % y 0,6 % de C en peso. Para mejorar sus propiedades son tratados térmicamente. Son más resistentes que los aceros bajos en carbono, pero menos dúctiles; se emplean en piezas de ingeniería que requieren una alta resistencia mecánica y al desgaste.
Acero alto en carbono: entre 0,60 % y 1,4 % de C en peso. Son aún más resistentes, pero también menos dúctiles. Se añaden otros elementos para que formen carburos, por ejemplo, con wolframio se forma el carburo de wolframio, WC; estos carburos son muy duros. Estos aceros se emplean principalmente en herramientas.
Aceros aleados: Con los aceros no aleados, o al carbono, es imposible satisfacer las demandas de la industria actual. Para conseguir determinadas características de resiliencia, resistencia al desgaste, dureza y resistencia a determinadas temperaturas deberemos recurrir a estos. Mediante la acción de uno o varios elementos de aleación en porcentajes adecuados se introducen modificaciones químicas y estructurales que afectan a la templabilidad, características mecánicas, resistencia a oxidación y otras propiedades.
La clasificación más técnica y correcta para los aceros al carbono (sin alear) según su contenido en carbono:
Los aceros hipoeutectoides, cuyo contenido en carbono oscila entre 0.02 % y 0,8 %.
Los aceros eutectoides cuyo contenido en carbono es de 0,8 %.
Los aceros hipereutectoides con contenidos en carbono de 0,8 % a 2 %.
Aceros inoxidables: uno de los inconvenientes del hierro es que se oxida con facilidad. Añadiendo un 12 % de cromo se considera acero inoxidable, debido a que este aleante crea una capa de óxido de cromo superficial que protege al acero de la corrosión o formación de óxidos de hierro. También puede tener otro tipo de aleantes como el níquel para impedir la formación de carburos de cromo, los cuales aportan fragilidad y potencian la oxidación intergranular.
El uso más extenso del hierro es para la obtención de aceros estructurales; también se producen grandes cantidades de hierro fundido y de hierro forjado. Entre otros usos del hierro y de sus compuestos se tienen la fabricación de imanes, tintes (tintas, papel para heliográficas, pigmentos pulidores) y abrasivos (colcótar).
Fundiciones[editar]
El hierro es obtenido en el alto horno mediante la conversión de los minerales en hierro líquido, a través de su reducción con coque; se separan con piedra caliza, los componentes indeseables como fósforo, azufre, y manganeso.
Los gases de los altos hornos son fuentes importantes de partículas y contienen óxido de carbono. La escoria del alto horno es formada al reaccionar la piedra caliza con los otros componentes y los silicatos que contienen los minerales.
Se enfría la escoria en agua, y esto puede producir monóxido de carbono y sulfuro de hidrógeno. Los desechos líquidos de la producción de hierro se originan en el lavado de gases de escape y enfriamiento de la escoria. A menudo, estas aguas servidas poseen altas concentraciones de sólidos suspendidos y pueden contener una amplia gama de compuestos orgánicos (fenoles y cresoles), amoníaco, compuestos de arsénico y sulfuros.
Cuando el contenido en carbono es superior a un 1.73 % en peso, la aleación se denomina fundición. Este carbono puede encontrarse disuelto, formando cementita o en forma libre. Son muy duras y frágiles. Hay distintos tipos de fundiciones:
Gris
Blanca
Atruchada
Maleable americana
Maleable europea
Esferoidal o dúctil
Vermicular
Sus características varían de un tipo a otra; según el tipo se utilizan para distintas aplicaciones: en motores, válvulas, engranajes, etc.
Por otra parte, los óxidos de hierro tienen variadas aplicaciones: en pinturas, obtención de hierro, la magnetita (Fe3O4) y el óxido de hierro (III) (Fe2O3) en aplicaciones magnéticas, etc. El hidróxido de hierro (III) (Fe(OH)3) se utiliza en radioquímica para concentrar los actínidos mediante co-precipitación.
Historia[editar]
Se tienen indicios de uso del hierro, cuatro milenios antes de Cristo, por parte de los sumerios y egipcios.
En el segundo y tercer milenio antes de Cristo, van apareciendo cada vez más objetos de hierro (que se distingue del hierro procedente de meteoritos por la ausencia de níquel) en Mesopotamia, Anatolia y Egipto. Sin embargo, su uso parece ser ceremonial, siendo un metal muy caro, más que el oro. Algunas fuentes sugieren que tal vez se obtuviera como subproducto de la obtención de cobre.
Entre 1600 a. C. y 1200 a. C. va aumentando su uso en Oriente Medio, pero no sustituye al predominante uso del bronce.
Entre los siglos XII a. C. y X a. C. se produce una rápida transición en Oriente Medio desde las armas de bronce a las de hierro. Esta rápida transición tal vez fuera debida a la falta de estaño, antes que a una mejora en la tecnología en el trabajo del hierro. A este periodo, que se produjo en diferentes fechas según el lugar, se le denomina Edad de Hierro, sustituyendo a la Edad de Bronce. En Grecia comenzó a emplearse en torno al año 1000 a. C. y no llegó a Europa occidental hasta el siglo VII a. C. La sustitución del bronce por el hierro fue paulatina, pues era difícil fabricar piezas de hierro: localizar el mineral, luego fundirlo a temperaturas altas para finalmente forjarlo.
En Europa Central, surgió en el siglo IX a. C. la cultura de Hallstatt (sustituyendo a la cultura de los campos de urnas, que se denomina «primera Edad de Hierro», pues coincide con la introducción de este metal).
Hacia el 450 a. C. se desarrolló la cultura de La Tène, también denominada «segunda Edad de Hierro». El hierro se usa en herramientas, armas y joyería, aunque siguen encontrándose objetos de bronce.
Junto con esta transición del bronce al hierro se descubrió el proceso de «carburización», consistente en añadir carbono al hierro. El hierro se obtenía como una mezcla de hierro y escoria, con algo de carbono o carburos, y era forjado, quitando la escoria y oxidando el carbono, creando así el producto ya con una forma. Este hierro forjado tenía un contenido en carbono muy bajo y no se podía endurecer fácilmente al enfriarlo en agua. Se observó que se podía obtener un producto mucho más duro calentando la pieza de hierro forjado en un lecho de carbón vegetal, para entonces sumergirlo en agua o aceite. El producto resultante, que tenía una superficie de acero, era más duro y menos frágil que el bronce, al que comenzó a reemplazar.
En China el primer hierro que se utilizó también procedía de meteoritos, habiéndose encontrado objetos de hierro forjado en el noroeste, cerca de Xinjiang, del siglo VIII a. C. El procedimiento era el mismo que el utilizado en Oriente Medio y Europa. En los últimos años de la Dinastía Zhou (550 a. C.) se consigue obtener hierro colado (producto de la fusión del arrabio). El mineral encontrado allí presenta un alto contenido en fósforo, con lo que funde a temperaturas menores que en Europa y otros sitios. Sin embargo durante bastante tiempo, hasta la Dinastía Qing (hacia 221 a. C.), no tuvo una gran repercusión.
El hierro colado tardó más en Europa, pues no se conseguía la temperatura suficiente. Algunas de las primeras muestras de hierro colado se han encontrado en Suecia, en Lapphyttan y Vinarhyttan, del 1150 a 1350.
En la Edad Media, y hasta finales del siglo XIX, muchos países europeos empleaban como método siderúrgico la farga catalana. Se obtenía hierro y acero bajo en carbono empleando carbón vegetal y el mineral de hierro. Este sistema estaba ya implantado en el siglo XV, y se conseguían alcanzar hasta unos 1200 °C. Este procedimiento fue sustituido por el empleado en los altos hornos.
En un principio se usaba carbón vegetal para la obtención de hierro como fuente de calor y como agente reductor. En el siglo XVIII, en Inglaterra, comenzó a escasear y hacerse más caro el carbón vegetal, y esto hizo que comenzara a utilizarse coque, un combustible fósil, como alternativa. Fue utilizado por primera vez por Abraham Darby, a principios del siglo XVIII, que construyó en Coalbrookdale un «alto horno». Asimismo, el coque se empleó como fuente de energía en la Revolución industrial. En este periodo la demanda de hierro fue cada vez mayor, por ejemplo para su aplicación en ferrocarriles.
El alto horno fue evolucionando a lo largo de los años. Henry Cort, en 1784, aplicó nuevas técnicas que mejoraron la producción. En 1826 el alemán Friedrich Harkot construye un alto horno sin mampostería para humos.
Hacia finales del siglo XVIII y comienzos del XIX se comenzó a emplear ampliamente el hierro como elemento estructural (en puentes, edificios, etc). Entre 1776 a 1779 se construye el primer puente de fundición de hierro, construido por John Wilkinson y Abraham Darby. En Inglaterra se emplea por primera vez en la construcción de edificios, por Mathew Boulton y James Watt, a principios del siglo XIX. También son conocidas otras obras de ese siglo, por ejemplo el Palacio de Cristal construido para la Exposición Universal de 1851 en Londres, del arquitecto Joseph Paxton, que tiene un armazón de hierro, o la Torre Eiffel, en París, construida en 1889 para la Exposición Universal, en donde se utilizaron miles de toneladas de hierro..
Abundancia y obtención[editar]
El hierro es el metal de transición más abundante en la corteza terrestre, y cuarto de todos los elementos. También existe en el Universo, habiéndose encontrado meteoritos que lo contienen. Es el principal metal que compone el núcleo de la Tierra hasta con un 70 %. Se encuentra formando parte de numerosos minerales, entre los que destacan la hematites (Fe2O3), la magnetita (Fe3O4), la limonita (FeO (OH)), la siderita (FeCO3), la pirita (FeS2), la ilmenita (FeTiO3), etcétera.
Se puede obtener hierro a partir de los óxidos con más o menos impurezas. Muchos de los minerales de hierro son óxidos, y los que no, se pueden oxidar para obtener los correspondientes óxidos.
La reducción de los óxidos para obtener hierro se lleva a cabo en un horno denominado comúnmente alto horno. En él se añaden los minerales de hierro en presencia de coque y carbonato de calcio, CaCO3, que actúa como escorificante.
Los gases sufren una serie de reacciones; el carbono puede reaccionar con el oxígeno para formar dióxido de carbono:
C + O2 → CO2
A su vez el dióxido de carbono puede reducirse para dar monóxido de carbono:
CO2 + C → 2CO
Aunque también se puede dar el proceso contrario al oxidarse el monóxido con oxígeno para volver a dar dióxido de carbono:
2CO + O2 → 2CO2
El proceso de oxidación de coque con oxígeno libera energía y se utiliza para calentar (llegándose hasta unos 1900 °C en la parte inferior del horno).
En primer lugar los óxidos de hierro pueden reducirse, parcial o totalmente, con el monóxido de carbono, CO; por ejemplo:
Fe3O4 + CO → 3FeO + CO2
FeO + CO → Fe + CO2
Después, conforme se baja en el horno y la temperatura aumenta, reaccionan con el coque (carbono en su mayor parte), reduciéndose los óxidos. Por ejemplo:
Fe3O4 + C → 3FeO + CO
El carbonato de calcio (caliza) se descompone:
CaCO3 → CaO + CO2
Y el dióxido de carbono es reducido con el coque a monóxido de carbono como se ha visto antes.
Más abajo se producen procesos de carburación:
3Fe + 2CO → Fe3C + CO2
Finalmente se produce la combustión y desulfuración (eliminación de azufre) mediante la entrada de aire. Y por último se separan dos fracciones: la escoria y el arrabio: hierro fundido, que es la materia prima que luego se emplea en la industria.
El arrabio suele contener bastantes impurezas no deseables, y es necesario someterlo a un proceso de afino en hornos llamados convertidores.
En 2000 los cinco mayores productores de hierro eran China, Brasil, Australia, Rusia e India, con el 70 % de la producción mundial. Actualmente el mayor yacimiento de Hierro del mundo se encuentra en la región de "El Mutún", en el departamento de Santa Cruz, Bolivia; dicho yacimiento cuenta con entre 40 000 y 42 000 millones de toneladas aprox. (40 % de la reserva mundial) para explotar.[cita requerida]
Reservas de hierro en el mundo[editar]
Datos disponibles para la extracción viable (2015):5
Puesto País Millones de toneladas
1 Bandera de Australia Australia 53 000
2 Bandera de Brasil Brasil 31 000
3 Bandera de Rusia Rusia 25 000
4 Bandera de República Popular China China 23 000
5 Bandera de India India 8100
6 Bandera de Estados Unidos Estados Unidos 6900
7 Bandera de Ucrania Ucrania 6500
8 Bandera de Canadá Canadá 6300
9 Bandera de Suecia Suecia 3500
10 Todo el mundo otros 18 000
Compuestos[editar]
Véase también: Categoría:Compuestos de hierro
Los estados de oxidación más comunes son +2 y +3. Los óxidos de hierro más conocidos son el óxido de hierro (II) (FeO), el óxido de hierro (III), Fe2O3, y el óxido mixto Fe3O4. Forma asimismo numerosas sales y complejos en estos estados de oxidación. El hexacianoferrato (II) de hierro (III), usado en pinturas, se ha denominado azul de Prusia o azul de Turnbull; se pensaba que eran sustancias diferentes.
Se conocen compuestos en el estado de oxidación +4, +5 y +6, pero son poco comunes, y en el caso del +5, no está bien caracterizado. El ferrato de potasio (K2FeO4), en el que el hierro está en estado de oxidación +6, se emplea como oxidante. El estado de oxidación +4 se encuentra en unos pocos compuestos y también en algunos procesos enzimáticos.
Varios compuestos de hierro exhiben estados de oxidación extraños, como el tetracarbonilferrato disódico.,6 Na2[Fe(CO)4], que atendiendo a su fórmula empírica el hierro posee estado de oxidación -2 (el monóxido de carbono que aparece como ligando no posee carga), que surge de la reacción del pentacarbonilhierro con sodio.
El Fe3C se conoce como cementita, que contiene un 6,67 % en carbono, al hierro α se le conoce como ferrita, y a la mezcla de ferrita y cementita, perlita o ledeburita dependiendo del contenido en carbono. La austenita es una solución sólida intersticial de carbono en hierro γ (Gamma).
Metabolismo del hierro[editar]
Artículo principal: Metabolismo del hierro
Aunque solo existe en pequeñas cantidades en los seres vivos, el hierro ha asumido un papel vital en el crecimiento y en la supervivencia de los mismos y es necesario no solo para lograr una adecuada oxigenación tisular sino también para el metabolismo de la mayor parte de las células.
En la actualidad con un incremento en el oxígeno atmosférico el hierro se encuentra en el medio ambiente casi exclusivamente en forma oxidada (ó ferrica Fe3+) y en esta forma es poco utilizable.
En los adultos sanos el hierro corporal total es de unos 2 a 4 gramos (2,5 gramos en 71 kg de peso en la mujer ó 35 mg/kg) (a 4 gramos en 80 kg o 50 mg/kg en los varones). Se encuentra distribuido en dos formas:
70 % como hierro funcional (2,8 de 4 gramos):
Eritrocitos (65 %).
Tisular: mioglobinas (4 %).
Enzimas dependientes del hierro (hem y no hem): 1 %
Estas son enzimas esenciales para la función de las mitocondrias y que controlan la oxidación intracelular (citocromos, oxidasas del citrocromo, catalasas, peroxidasas).
Transferrina (0,1 %), la cual se encuentra normalmente saturada en 1/3 con hierro.
La mayor atención con relación a este tipo de hierro se ha enfocado hacia el eritrón, ya que su estatus de hierro puede ser fácilmente medible y constituye la principal fracción del hierro corporal.
30 % como hierro de depósito (1 g):
Ferritina (2/3): Principal forma de depósito del hierro en los tejidos.
Hemosiderina (1/3).
Hemoglobina: Transporta el oxígeno a las células.
Transferrina: Transporta el hierro a través del plasma.
Estudios recientes de disponibilidad del hierro de los alimentos han demostrado que el hierro del hem es bien absorbido, pero el hierro no hem se absorbe en general muy pobremente y este último, es el hierro que predomina en la dieta de gran cantidad de gente en el mundo.[cita requerida]
Hem: Como hemoglobina y mioglobina, presente principalmente en la carne y derivados.
No hem.
La absorción del hierro hem no es afectada por ningún factor; ni dietético, ni de secreción gastrointestinal. Se absorbe tal cual dentro del anillo porfirínico. El hierro es liberado dentro de las células de la mucosa por la HEM oxigenasa, enzima que abunda en las células intestinales del duodeno.
Las absorción del hierro no hem, por el contrario se encuentra afectada por una gran contidad de factores dietéticos y de secreción gastrointestinal que se analizarán posteriormente.
El hierro procedente de la dieta, especialmente el "no hem", es hierro férrico y debe ser convertido en hierro ferroso a nivel gástrico antes que ocurra su absorción en esta forma (hierro ferroso) a nivel duodenal principalmente.
Otros factores, independientes de la dieta que pueden influir en la absorción del hierro son:
El tamaño del depósito de hierro que indica el estado de reserva de hierro de un individuo. Este es el principal mecanismo de control. Se encuentra influenciado por los depósitos de hierro y por lo tanto, por las necesidades corporales. Así, reservas aumentadas de hierro disminuyen su absorción. En este punto el factor más importante que influye en la absorción del hierro es el contenido de hierro en las células de la mucosa intestinal (ferritina local). Es el llamado “Bloqueo mucoso de Granick”.
La eritropoyesis en la médula ósea: que es un estado dinámico de consumo o no de hierro corporal. Así, decae la absorción del hierro cuando disminuye la eritropoyesis.
La absorción del hierro en forma ferrosa tiene lugar en el duodeno y en el yeyuno superior, y requiere de un mecanismo activo que necesita energía. El hierro se une a glucoproteínas de superficie (o receptores específicos de la mucosa intestinal para el hierro), situadas en el borde en cepillo de las células intestinales. Luego se dirige al retículo endoplasmático rugoso y a los ribosomas libres (donde forma ferritina) y posteriormente a los vasos de la lámina propia.
Como puede deducirse, la absorción del hierro es regulada por la mucosa intestinal, lo que impide que reservas excesivas de hierro se acumulen. La absorción del hierro depende también de la cantidad de esta proteína.
El hierro se encuentra en prácticamente todos los seres vivos y cumple numerosas y variadas funciones.
Hay distintas proteínas que contienen el grupo hemo, que consiste en el ligando porfirina con un átomo de hierro. Algunos ejemplos:
La hemoglobina y la mioglobina; la primera transporta oxígeno, O2, y la segunda, lo almacena.
Los citocromos; los citocromos c catalizan la reducción de oxígeno a agua. Los citocromos P450 catalizan la oxidación de compuestos hidrofóbicos, como fármacos o drogas, para que puedan ser excretados, y participan en la síntesis de distintas moléculas.
Las peroxidasas y catalasas catalizan la oxidación de peróxidos, H2O2, que son tóxicos.
Ferredoxina 4Fe-4S.png
Ejemplo de centro de una proteína de Fe/S (ferredoxina)
Las proteínas de hierro/azufre (Fe/S) participan en procesos de transferencia de electrones.
También se puede encontrar proteínas en donde átomos de hierro se enlazan entre sí a través de enlaces puente de oxígeno. Se denominan proteínas Fe-O-Fe. Algunos ejemplos:
Las bacterias metanotróficas, que emplean el metano, CH4, como fuente de energía y de carbono, usan proteínas de este tipo, llamadas monooxigenasas, para catalizar la oxidación de este metano.
La hemeritrina transporta oxígeno en algunos organismos marinos.
Algunas ribonucleótido reductasas contienen hierro. Catalizan la formación de desoxinucleótidos.
Los animales para transportar el hierro dentro del cuerpo emplean unas proteínas llamadas transferrinas. Para almacenarlo, emplean la ferritina y la hemosiderina. El hierro entra en el organismo al ser absorbido en el intestino delgado y es transportado o almacenado por esas proteínas. La mayor parte del hierro se reutiliza y muy poco se excreta.
Tanto el exceso como el defecto de hierro, pueden provocar problemas en el organismo. El envenamiento por hierro ocurre debido a la ingesta exagerada de esté (como suplemento en el tratamiento de anemias).
La hemocromatosis corresponde a una enfermedad de origen genético, en la cual ocurre una excesiva absorción del hierro, el cual se deposita en el hígado, causando disfunción de éste y eventualmente llegando a la cirrosis hepática.
En las transfusiones de sangre, se emplean ligandos que forman con el hierro complejos de una alta estabilidad para evitar que quede demasiado hierro libre.
Estos ligandos se conocen como sideróforos. Muchos microorganismos emplean estos sideróforos para captar el hierro que necesitan. También se pueden emplear como antibióticos, pues no dejan hierro libre disponible.
Isótopos[editar]
El hierro tiene cuatro isótopos estables naturales: 54Fe, 56Fe, 57Fe y 58Fe, Las abundancias relativas en las que se encuentran en la naturaleza son de aproximadamente: 54Fe (5,8 %), 56Fe (91,7 %), 57Fe (2,2 %) y 58Fe (0,3 %).
Precauciones[editar]
La siderosis es el depósito de hierro en los tejidos. El hierro en exceso es tóxico. El hierro reacciona con peróxido y produce radicales libres; la reacción más importante es:
Fe2+ + H2O2 → Fe3+ + OH- + OH•
Cuando el hierro se encuentra dentro de unos niveles normales, los mecanismos antioxidantes del organismo pueden controlar este proceso.
La dosis letal de hierro en un niño de 2 años es de unos 3.1 g puede provocar un envenenamiento importante. El hierro en exceso se acumula en el hígado y provoca daños en este órgano.

Ha recibido 624 puntos

Vótalo:

DESFIBRILADOR (1930)

39. DESFIBRILADOR (1930)

https://www.youtube.com/watch?v=1FqGxBHvEqw

El desfibrilador externo semiautomático (DESA) es un aparato electrónico portátil (producto sanitario) que diagnostica y trata la parada cardiorrespiratoria cuando es debida a la fibrilación ventricular (en que el corazón tiene actividad eléctrica pero sin efectividad mecánica) o a una... Ver mas
El desfibrilador externo semiautomático (DESA) es un aparato electrónico portátil (producto sanitario) que diagnostica y trata la parada cardiorrespiratoria cuando es debida a la fibrilación ventricular (en que el corazón tiene actividad eléctrica pero sin efectividad mecánica) o a una taquicardia ventricular sin pulso (en que hay actividad eléctrica y en este caso el bombeo sanguíneo es ineficaz), restableciendo un ritmo cardíaco efectivo eléctrica y mecánicamente. La desfibrilación consiste en emitir un impulso de corriente continua al corazón, despolarizando simultáneamente todas las células miocárdicas, pudiendo retomar su ritmo eléctrico normal u otro eficaz. La fibrilación ventricular es la causa más frecuente de muerte súbita.
El DESA es muy eficaz para la mayor parte de los llamados paros cardíacos, que en su mayor parte son debidos a que el corazón fibrila y su ritmo no es el adecuado, estos equipos básicamente devuelven el ritmo adecuado al corazón, pero es totalmente ineficaz en la parada cardíaca con asistolia pues el corazón, en este caso, además de no bombear la sangre, no tiene actividad eléctrica; y en la actividad eléctrica sin pulso (AESP), antes denominada disociación electromecánica, donde hay actividad eléctrica, que puede ser incluso normal, pero sin eficacia mecánica. En estos dos últimos casos únicamente se debe realizar compresión torácica mientras se establecen otras medidas avanzadas.

En esta imagen se puede ver el impulso eléctrico normal que produce la despolarización y la correspondiente contracción muscular. Debajo su reflejo eléctrico en un electrocardiograma.
Índice [ocultar]
1 Tipos de aparatos
2 Secuencia de uso de un DEA
3 Desfibriladores
4 Mantenimiento
5 Desfibriladores en España y UE. Normativas
5.1 Normativas y Certificado
6 Véase también
7 Referencias
8 Bibliografía
9 Enlaces externos
Tipos de aparatos[editar]
Hay distintos tipos de aparatos según el grado de autonomía del mismo:
El DESA está pensado para ser utilizado por personal no sanitario, de tal forma que siguiendo sus instrucciones se colocan los electrodos en el paciente, y el aparato, tras determinar el tipo de ritmo cardíaco, aconseja a los asistentes separarse para emitir la descarga eléctrica, o bien, aconseja realizar compresiones torácicas.
En los países desarrollados la tendencia es a colocarlos en lugares concurridos para evitar los episodios de muerte súbita, dado que su efectividad es máxima en el momento inicial, disminuyendo rápidamente en los minutos sucesivos.
Los equipos más modernos son DESA con ayuda a la RCP. Estos equipos han sido aconsejados en las nuevas recomendaciones del 2010 por su efectividad. No solo dan la descarga sino que además guían durante toda la rcp indicando si la velocidad y profundidad de las compresiones son las adecuadas.
Hay que diferenciarlo de los desfibriladores-cardioversores convencionales, utilizados por personal sanitario (médicos y enfermeros principalmente) donde se visualiza el ritmo cardíaco, decidiendo el profesional el tipo de descarga en cuanto a intensidad o para realizarlo de forma sincronizada con el ciclo eléctrico cardíaco (emitir la descarga en la despolarización ventricular, en la R del electrocardiograma) En España éstos últimos desfibriladores manuales están desapareciendo poco a poco de hospitales y centros sanitarios.
Secuencia de uso de un DEA[editar]
Asegurarse de que el reanimador, la víctima y cualquier testigo están seguros. Seguir la secuencia del SVB de un adulto: Si la víctima no responde y no respira con normalidad, enviar a alguien a buscar ayuda y, si encuentra, buscar y traer un DEA. Poner en funcionamiento el DEA y aplicar los parches en el pecho desnudo del paciente. Si hay más de un reanimador, las maniobras de RCP tienen que hacerse mientras se colocan los parches. Seguir las instrucciones del DEA inmediatamente. Asegurarse de que nadie se acerca o toca a la víctima mientras el DEA lleva a cabo el análisis del ritmo.
Si la descarga está indicada: asegurarse de que nadie toca a la víctima. Pulsar el botón de descarga. Reiniciar inmediatamente RCP 30:2. Continuar como se indica en las instrucciones.
Si la descarga no está indicada: reiniciar la RCP inmediatamente, realizando 30 compresiones torácicas y 2 insuflaciones. Continuar como se indica en las instrucciones visuales/sonoras.
Seguir las instrucciones del DEA hasta que: llegue algún otro reanimador que tome el relevo. La víctima se despierte: se mueva, abra los ojos y respire con normalidad. El reanimador esté cansado y haya otra persona que le pueda sustituir inmediatamente.
Desfibriladores[editar]
Existen proyectos en España y otras partes del mundo, apoyados por cardiólogos, que fomentan la instalación de sistemas de cardioprotección en lugares específicos, como los de mucha concurrencia de público (centros comerciales, aeropuertos, instalaciones deportivas, casinos y otros lugares concurridos), colegios, institutos, universidades, clubes deportivos, asociaciones, entre otros.
Cada año se registran en España unas 24 500 paradas cardíacas extrahospitalarias, es decir, aproximadamente una cada 20 minutos. Se trata de un problema que ocasiona cuatro veces mayor número de muertes que los accidentes de tráfico. Además, anualmente se producen unos 68 500 infartos de miocardio agudos, de los que aproximadamente un 30 % provocan la muerte del paciente antes de llegar al hospital.
Mantenimiento[editar]
Es un servicio clave para que el desfibrilador externo semiautomático esté siempre a punto en caso de necesitarlo. Los mantenimientos son anuales o siempre después de una intervención.
Tanto es importante estar formado para el uso del desfibrilador, como de tener contratado un servicio de mantenimiento para este, y tener la tranquilidad de que el desfibrilador se encuentre siempre en buenas condiciones para cualquier eventualidad.
Desfibriladores en España y UE. Normativas[editar]
En España actualmente se han implantado en la mayoría de los aeropuertos así como en grandes complejos comerciales, zonas comunes de los hospitales, centros deportivos, etc.
Dentro de la Unión Europea, los países que más han desarrollado la implantación son Holanda, Francia, Inglaterra y Alemania. En casi todos existe una ley que obliga a la instalación de desfibriladores disminuyendo con ello las muertes debidas a paros súbitos cardicacos . En esta dirección se mueven todos los países europeos, así como España, cuya normativa vemos a continuación.
Normativas y Certificado[editar]
En España existe un Real Decreto 365-2009 por el que se traspasa a cada Comunidad la decisión de poder legislar sobre la implantación de desfibriladores, así como los requisitos para la utilización de estos equipos por el público en general. La mayor parte de las comunidades exigen un curso de formación denominado RCP + DESA, estos requisitos no impiden la instalación de los equipos, solo regulan su utilización. Los ejemplos más extremos en cuanto a legislación están en Madrid, donde no existe legislación, y en Cataluña, que obliga a la implantación de desfibriladores en ciertos lugares.
La recomendación a nivel mundial es recibir un curso sobre el manejo del mismo práctico de 2-3 horas impartido por el suministrador de los desfibriladores. También cabe recordar que las primeras personas en llegar a un evento son las que están cercanas a el o las fuerzas de seguridad del estado, estas últimas están formadas para utilizar el desa aunque no lleven uno consigo y las personas cercanas al lugar pueden tener conocimientos de utilización o incluso ser sanitarias.
La LFP obliga a tener en todos los estadios de fútbol de Primera y Segunda división tras la muerte de Antonio Puerta, gracias a eso recientemente se salvó la vida, del futbolista Miguel Ángel García en Salamanca.

Ha recibido 601 puntos

Vótalo:

SALAZÓN (3000 a.C)

40. SALAZÓN (3000 a.C)

https://www.youtube.com/watch?v=sA0crZfb6uU

Se denomina salazón a un método destinado a preservar los alimentos, de forma que se encuentren disponibles para el consumo durante un mayor tiempo. El efecto de la salazón es la deshidratación parcial de los alimentos, el refuerzo del sabor y la inhibición de algunas bacterias. Existe la... Ver mas
Se denomina salazón a un método destinado a preservar los alimentos, de forma que se encuentren disponibles para el consumo durante un mayor tiempo. El efecto de la salazón es la deshidratación parcial de los alimentos, el refuerzo del sabor y la inhibición de algunas bacterias.
Existe la posibilidad de salar frutas y vegetales, aunque lo frecuente es aplicar el método en alimentos tales como carnes o pescados.
A menudo se suele emplear para la salazón una mezcla de sal procedente de alguna salina acompañando con nitrato sódico y nitrito. Es muy habitual también durante las fases finales acompañar la sal con sabores tales como pimentón, canela, semillas de eneldo o mostaza.
Un ejemplo muy común es el jamón: primero se pone en salmuera en los jamones para ayudar a la deshidratación, luego se lo coloca en cámaras con temperaturas de 0 y 5 ºC y se lo recubre completamente con sal de cristal. El tiempo varia según su peso y su nivel de pureza. De este modo un jamón debe permanecer en cámara un día por cada kilo. A la mitad del proceso se voltea las piezas para una distribución homogénea de sal.
De carne ovina, equina, vacuna o caprina se encuentra un producto similar llamado “cecina”, pero en el cual se realizan tajadas finas y se lo pasa previamente por salmuera. Por último, se deja reposar en un lugar donde el sol dé directamente.
Índice [ocultar]
1 Historia
2 Salazón de carnes
3 Proceso de salazón de pescados
4 Referencias literarias y usos
4.1 Referencias literarias
4.2 Usos
5 Véase también
6 Bibliografía
Historia[editar]
La salazón es uno de los métodos más antiguos para conservar los alimentos. Se sabe que los antiguos egipcios ya empezaban a poner las carnes en salazón con el objeto de poder almacenarlas y mantenerlas comestibles durante largos periodos de tiempo. También hay evidencias de similares usos en la China del tercer milenio antes de Cristo.
La importancia de la salazón hizo que la producción y la comercialización de la sal hayan sido en una de las prioridades de las distintas potencias desde tiempos del Imperio Romano. Un hecho significativo de esto es que el término salario en castellano, es derivado del latín salarium, que a su vez proviene de “sal” y tiene origen en la cantidad de sal que se le daba a un trabajador (en particular a los legionarios romanos) para poder conservar sus alimentos (salarium argentum).
Sólo a partir del siglo XIX, debido a las mejoras en la refrigeración y congelación de alimentos, fue quedando en un segundo plano la salazón como medio para la conservación de ciertos alimentos.
Salazón de carnes[editar]

Jamones en su proceso de salado, en BEHER, Guijuelo (España).
La salazón de carnes se hace mediante el empleo de la sal en forma de cristales o mediante el empleo de salmueras (soluciones concentradas de sal). Ejemplos de salazón con carne se pueden encontrar en España en la provincia de León donde se mantiene el proceso de salazón de las carnes de vacuno produciendo la cecina. Suele ponerse en salazón la carne de cerdo, la panceta y el jamón.
Proceso de salazón de pescados[editar]

"Volaores" en reposo en Ceuta

Oreado de lomos de bonito en Ceuta
Limpiado. Limpiar las vísceras dejando sólo la carne magra y la espina dorsal.
Apilado. Se pone una capa de sal de un centímetro de espesor como lecho y se coloca el pescado extendido sobre su superficie. Sobre la capa anterior de pescado se pone otra capa de sal del mismo grosor y se repite la operación obteniéndose diferentes capas de sal y pescado. Finalmente sobre la última capa de sal se pone un peso (Por lo menos la mitad del peso del pescado en salazón)
Reposo El apilamiento anterior se mantiene semana y media en reposo
Lavado Tras el tiempo establecido de reposo se saca el pescado y se lava con una solución de agua y vinagre (al 10%)
Oreado Tras el lavado se pone al aire en un sitio con corrientes de aire pero que no le dé directamente el sol. Según el clima del lugar se deja unos días.
Actualmente el proceso para obtener algunas salazones difiere en tiempos y materiales utilizados. En preparaciones como hueva o mojama las capas permanecen en reposo durante 24 horas, tras las que tiene lugar el lavado y su introducción en prensas que escurren el agua. Tras pasar por el secadero se envasan al vacío. El secado tiene lugar en la secadora, una habitación aislada con extractor de humedad que aplica calor seco (su uso es exigido por sanidad).
Los pescados más representativos que se utilizan en el sureste español para realizar salazones son el atún, atunarro, bonito o melva (garrofeta), sardina, mújol, maruca o corvina.
Referencias literarias y usos[editar]
Referencias literarias[editar]
La principal referencia literaria sobre la salazón es el Quijote, donde se menciona a Aldonza Lorenzo (Dulcinea del Toboso) como una fenomenal saladora de jamones.
En Canción de hielo y fuego frecuentemente se hace mención a alimentos en salazón.
Usos[editar]
Desde muy antiguo era una de las únicas formas de conservar alimentos para los viajes marinos y esto era el causante del temido escorbuto (es una avitaminosis producida por el déficit de vitamina C).

Ha recibido 598 puntos

Vótalo:

MICROSCOPIO (1595)

41. MICROSCOPIO (1595)

https://www.youtube.com/watch?v=HzHAECxLjs0

El microscopio (del griego μικρός micrós, ‘pequeño’, y σκοπέω scopéo, ‘mirar’)1 es un instrumento que permite observar objetos que son demasiado pequeños para ser observados a simple vista. El tipo más común y el primero que se inventó es el microscopio óptico. Se trata de un instrumento óptico... Ver mas
El microscopio (del griego μικρός micrós, ‘pequeño’, y σκοπέω scopéo, ‘mirar’)1 es un instrumento que permite observar objetos que son demasiado pequeños para ser observados a simple vista. El tipo más común y el primero que se inventó es el microscopio óptico. Se trata de un instrumento óptico que contiene dos o más lentes que permiten obtener una imagen aumentada del objeto y que funciona por refracción. La ciencia que investiga los objetos pequeños utilizando este instrumento se llama microscopía.

Microscopio compuesto fabricado hacia 1751 por Magny. Proviene del laboratorio del duque de Chaulnes y pertenece al Museo de Artes y Oficios, París.
El microscopio fue inventado por Zacharias Janssen en 1590. En 1665 aparece en la obra de William Harvey sobre la circulación sanguínea al mirar al microscopio los capilares sanguíneos, y Robert Hooke publicó su obra Micrographia.
En 1665 Robert Hooke observó con un microscopio un delgado corte de corcho y notó que el material era poroso, en su conjunto, formaban cavidades poco profundas a modo de celditas a las que llamó células. Se trataba de la primera observación de células muertas. Unos años más tarde, Marcello Malpighi, anatomista y biólogo italiano, observó células vivas. Fue el primero en estudiar tejidos vivos al microscopio.
A mediados del siglo XVII un holandés, Anton van Leeuwenhoek, utilizando microscopios simples de fabricación propia, describió por primera vez protozoos, bacterias, espermatozoides y glóbulos rojos. El microscopista Leeuwenhoek, sin ninguna preparación científica, puede considerarse el fundador de la bacteriología. Tallaba él mismo sus lupas, sobre pequeñas esferas de cristal, cuyos diámetros no alcanzaban el milímetro (su campo de visión era muy limitado, de décimas de milímetro). Con estas pequeñas distancias focales alcanzaba los 275 aumentos. Observó los glóbulos de la sangre, las bacterias y los protozoos; examinó por primera vez los glóbulos rojos y descubrió que el semen contiene espermatozoides. Durante su vida no reveló sus métodos secretos y a su muerte, en 1723, 26 de sus aparatos fueron cedidos a la Royal Society de Londres.
Durante el siglo XVIII continuó el progreso y se lograron objetivos acromáticos por asociación de Chris Neros y Flint Crown obtenidos en 1740 por H. M. Hall y mejorados por John Dollond. De esta época son los estudios efectuados por Isaac Newton y Leonhard Euler. En el siglo XIX, al descubrirse que la dispersión y la refracción se podían modificar con combinaciones adecuadas de dos o más medios ópticos, se lanzan al mercado objetivos acromáticos excelentes.
Durante el siglo XVIII el microscopio tuvo diversos adelantos mecánicos que aumentaron su estabilidad y su facilidad de uso, aunque no se desarrollaron por el momento mejoras ópticas. Las mejoras más importantes de la óptica surgieron en 1877, cuando Ernst Abbe publicó su teoría del microscopio y, por encargo de Carl Zeiss, mejoró la microscopía de inmersión sustituyendo el agua por aceite de cedro, lo que permite obtener aumentos de 2000. A principios de los años 1930 se había alcanzado el límite teórico para los microscopios ópticos, no consiguiendo estos aumentos superiores a 500X o 1,000X. Sin embargo, existía un deseo científico de observar los detalles de estructuras celulares (núcleo, mitocondria, etc.).
El microscopio electrónico de transmisión (TEM) fue el primer tipo de microscopio electrónico desarrollado. Utiliza un haz de electrones en lugar de luz para enfocar la muestra consiguiendo aumentos de 100.000X. Fue desarrollado por Max Knoll y Ernst Ruska en Alemania en 1931. Posteriormente, en 1942 se desarrolla el microscopio electrónico de barrido.
Índice [ocultar]
1 Tipos de microscopios
2 Véase también
3 Referencias
4 Enlaces externos
Tipos de microscopios[editar]

Microscopio electrónico de barrido.
Microscopio óptico
Microscopio simple
Microscopio de luz ultravioleta
Microscopio de fluorescencia
Microscopio petrográfico
Microscopio de campo oscuro
Microscopio de contraste de fases
Microscopio de luz polarizada
Microscopio confocal
Microscopio compuesto
Microscopio electrónico
Microscopio electrónico de transmisión
Microscopio electrónico de barrido
Microscopio de iones en campo
Microscopio de sonda de barrido
Microscopio de efecto túnel
Microscopio de fuerza atómica
Microscopio virtual
Estereomicroscopio

Ha recibido 597 puntos

Vótalo:

RAYOS X (1895)

42. RAYOS X (1895)

https://www.youtube.com/watch?v=ONsPE0hNid8

La denominación rayos X designa a una radiación electromagnética, invisible para el ojo humano, capaz de atravesar cuerpos opacos y de imprimir las películas fotográficas. Los actuales sistemas digitales permiten la obtención y visualización de la imagen radiográfica directamente en una... Ver mas
La denominación rayos X designa a una radiación electromagnética, invisible para el ojo humano, capaz de atravesar cuerpos opacos y de imprimir las películas fotográficas. Los actuales sistemas digitales permiten la obtención y visualización de la imagen radiográfica directamente en una computadora (ordenador) sin necesidad de imprimirla. La longitud de onda está entre 10 a 0,01 nanómetros, correspondiendo a frecuencias en el rango de 30 a 30000 PHz (de 50 a 5000 veces la frecuencia de la luz visible).
Índice [ocultar]
1 Definición
2 Descubrimiento
3 Producción de rayos X
4 Detectores de rayos X
5 Espectros
5.1 Espectro continuo
5.2 Espectro característico
6 Interacción de los rayos X con la materia
7 Riesgos para la salud
7.1 Restar lo evitable
8 Aplicaciones
8.1 Médicas
8.2 Otras
9 Véase también
10 Referencias
11 Bibliografía
12 Enlaces externos
Definición[editar]
Los rayos X son una radiación electromagnética de la misma naturaleza que las ondas de radio, las ondas de microondas, los rayos infrarrojos, la luz visible, los rayos ultravioleta y los rayos gamma. La diferencia fundamental con los rayos gamma es su origen: los rayos gamma son radiaciones de origen nuclear que se producen por la desexcitación de un nucleón de un nivel excitado a otro de menor energía y en la desintegración de isótopos radiactivos, mientras que los rayos X surgen de fenómenos extranucleares, a nivel de la órbita electrónica, fundamentalmente producidos por desaceleración de electrones. La energía de los rayos X en general se encuentra entre la radiación ultravioleta y los rayos gamma producidos naturalmente. Los rayos X son una radiación ionizante porque al interactuar con la materia produce la ionización de los átomos de la misma, es decir, origina partículas con carga (iones).
Descubrimiento[editar]
La historia de los rayos X comienza con los experimentos del científico británico William Crookes, que investigó en el siglo XIX los efectos de ciertos gases al aplicarles descargas de energía. Estos experimentos se desarrollaban en un tubo vacío, y electrodos para generar corrientes de alto voltaje. Él lo llamó tubo de Crookes. Este tubo, al estar cerca de placas fotográficas, generaba en las mismas algunas imágenes borrosas. Pese al descubrimiento, Nikola Tesla, en 1887, comenzó a estudiar este efecto creado por medio de los tubos de Crookes. Una de las consecuencias de su investigación fue advertir a la comunidad científica el peligro para los organismos biológicos que supone la exposición a estas radiaciones.[cita requerida]
El físico alemán Wilhelm Conrad Röntgen descubrió los rayos X en 1895, mientras experimentaba con los tubos de Hittorff-Crookes y la bobina de Ruhmkorff para investigar la fluorescencia violeta que producían los rayos catódicos. Tras cubrir el tubo con un cartón negro para eliminar la luz visible, observó un débil resplandor amarillo-verdoso proveniente de una pantalla con una capa de platino-cianuro de bario, que desaparecía al apagar el tubo. Determinó que los rayos creaban una radiación muy penetrante, pero invisible, que atravesaba grandes espesores de papel e incluso metales poco densos. Usó placas fotográficas para demostrar que los objetos eran más o menos transparentes a los rayos X dependiendo de su espesor y realizó la primera radiografía humana, usando la mano de su mujer. Los llamó "rayos incógnita", o "rayos X" porque no sabía qué eran, solo que eran generados por los rayos catódicos al chocar contra ciertos materiales. Pese a los descubrimientos posteriores sobre la naturaleza del fenómeno, se decidió que conservaran ese nombre.1 En Europa Central y Europa del Este, los rayos se llaman rayos Röntgen (en alemán: Röntgenstrahlen).
La noticia del descubrimiento de los rayos X se divulgó con mucha rapidez en el mundo. Röntgen fue objeto de múltiples reconocimientos: el emperador Guillermo II de Alemania le concedió la Orden de la Corona y fue premiado con la Medalla Rumford de la Real Sociedad de Londres en 1896, con la medalla Barnard de la Universidad de Columbia y con el premio Nobel de Física en 1901.
Producción de rayos X[editar]
Véanse también: Tubo de rayos X y Radiación sincrotrón.
Los rayos X se pueden observar cuando un haz de electrones muy energéticos (del orden de 1 keV) se desaceleran al chocar con un blanco metálico. Según la mecánica clásica, una carga acelerada emite radiación electromagnética, de este modo, el choque produce un espectro continuo de rayos X a partir de cierta longitud de onda mínima dependiente de la energía de los electrones. Este tipo de radiación se denomina Bremsstrahlung, o ‘radiación de frenado’. Además, los átomos del material metálico emiten también rayos X monocromáticos, lo que se conoce como línea de emisión característica del material. Otra fuente de rayos X es la radiación sincrotrón emitida en aceleradores de partículas.
Para la producción de rayos X en laboratorios y hospitales se usan los tubos de rayos X, que pueden ser de dos clases: tubos con filamento o tubos con gas.
El tubo con filamento es un tubo de vidrio al vacío en el cual se encuentran dos electrodos en sus extremos. El cátodo es un filamento de tungsteno y el ánodo es un bloque de metal con una línea característica de emisión de la energía deseada. Los electrones generados en el cátodo son enfocados hacia un punto en el blanco (que por lo general posee una inclinación de 45°) y los rayos X son generados como producto de la colisión. El total de la radiación que se consigue equivale al 1% de la energía emitida; el resto son electrones y energía térmica, por lo cual el ánodo debe estar refrigerado para evitar el sobrecalentamiento de la estructura. A veces, el ánodo se monta sobre un motor rotatorio; al girar continuamente el calentamiento se reparte por toda la superficie del ánodo y se puede operar a mayor potencia. En este caso el dispositivo se conoce como «ánodo rotatorio».2 Finalmente, el tubo de rayos X posee una ventana transparente a los rayos X, elaborada en berilio, aluminio o mica.

Esquema de un tubo de rayos X
El tubo con gas se encuentra a una presión de aproximadamente 0.01 mmHg y es controlada mediante una válvula; posee un cátodo de aluminio cóncavo, el cual permite enfocar los electrones y un ánodo. La