sábado, 20 de marzo de 2010

Nanobiotecnología: Avances Diagnósticos y Terapéuticos

Nanobiotecnología: Avances Diagnósticos y Terapéuticos
La Nanobiotecnología, convergencia entre la Nanotecnología y la Biotecnología, es la rama de la Nanotecnología que se perfila como la de mayor impacto en un futuro próximo debido a sus importantes aplicaciones, especialmente, diagnósticas y terapéuticas. La detección temprana de enfermedades (como el cáncer), su tratamiento precoz a nivel personalizado y el posterior seguimiento de su evolución serán posibles en los próximos años gracias a la aplicación de las herramientas nanobiotecnológicas que se están actualmente desarrollando. Este articulo pretende dar una visión de lo que es la Nanobiotecnología en general y la Nanomedicina, en particular, mostrando los más importantes avances en estos campos que podrían dar lugar a nuevos sistemas de diagnóstico y terapéuticos de mayor eficacia que los existentes, lo que redundaría en una mayor calidad de vida para los ciudadanos.
Nanobiotecnología: introducción
Dos de los grandes retos del Siglo XXI serán la capacidad de detectar de forma precoz la presencia de enfermedades y defectos genéticos, así como la capacidad de regenerar aquellos órganos y tejidos que estén dañados dentro de nuestro cuerpo. Encontrar una solución a estos retos podría tener una gran repercusión en la calidad de vida de los seres humanos. La Nanobiotecnología, disciplina en la frontera entre la nanotecnología y la biotecnología, es una de las grandes áreas emergentes en ciencia y tecnología que promete obtener tales avances. A través de la convergencia con la biotecnología, la Nanotecnología ofrece a las ciencias biológicas nuevos materiales y herramientas que poseen nuevas características o que mejoran significativamente su funcionamiento; en cambio la biología ofrece a la Nanotecnología oportunidades sin precedentes para explorar, aprender y utilizar nanoestructuras funcionales que son inherentes a los seres vivos.
Es evidente que el aumento de graves enfermedades como el cáncer, la diabetes o las enfermedades cardiovasculares en el mundo occidental, así como el aumento de la esperanza de vida con el consiguiente envejecimiento de la sociedad y la mayor incidencia de enfermedades crónicas, motiva la búsqueda de nuevos métodos de diagnóstico y terapéuticos que sean más rápidos y eficaces que los actuales y que además reduzcan al máximo los costes de los análisis y los servicios, y que al mismo tiempo sean cómodos para el usuario. Gracias a la Nanobiotecnología en un futuro próximo será posible contar con tales progresos y se podrá llegar hasta los tratamientos individualizados a distancia, o bien en el propio hogar o lugar de trabajo del paciente.
La definición de Nanobiotecnología abarca dos grandes áreas de actuación:
i.Aplicación de herramientas, componentes y procesos de la Nanotecnología a los sistemas biológicos, lo que últimamente se está dominando Nanomedicina, desarrollando herramientas para prevenir y tratar enfermedades en el cuerpo humano cuando están todavía en estados poco avanzados, lo que conllevará grandes avances diagnósticos y terapéuticos.
ii.Uso de sistemas biológicos como moldes para el desarrollo de nuevos productos de escala nanométrica (fundamentalmente nanodispositivos electrónicos).
En este articulo nos centraremos fundamentalmente en la primera área de actuación (nanomedicina) por ser esta la de mayor desarrollo e interés. Las herramientas y técnicas a la nanoescala están ayudando no sólo al diseño de materiales con dimensiones nanométricas que presentan características nuevas o mejoradas sino también a entender y manipular células vivas y componentes biológicos, por lo que está abriendo un camino potencial a la obtención de nuevos biosensores, nanoherramientas o sistemas de liberación de fármacos dirigidos, por citar algunos ejemplos. La Figura 1 muestra algunos de estos desarrollos nanobiotecnológicos. Estos avances sólo pueden tener lugar gracias a la integración multidisciplinar de la Nanotecnología con la biología y la medicina y por eso la característica esencial de la nanobiotecnología es la multidisciplinaridad.
Uno de los grandes retos es el desarrollo de "nanoterapias" dirigidas específicamente a los tejidos y órganos enfermos evitándose dañar a las células sanas circundantes. La investigación en cáncer ilustra muchos de los potenciales de la nanobiotecnología a largo plazo ya que es de esperar que ayude a desarrollar una terapia anticáncer adecuada basada en:
•Sistemas de diagnóstico e imagen que permitan detectar el inicio de un proceso canceroso y que sea capaz de identificar el tipo de cáncer.
•Dispositivos multifuncionales capaces de evitar las barreras biológicas para transportar múltiples agentes terapéuticos directamente a las células cancerígenas y a aquellos tejidos que juegan un papel crítico en el crecimiento y metástasis del cáncer.
•Sistemas que proporcionen información en tiempo real de los efectos terapéuticos y/o de la cirugía sobre la zona tumoral.
•Agentes que pueden predecir cambios moleculares y prevenir que las células precancerosas se conviertan en malignas.
Así, el Instituto Nacional del Cáncer de Estados Unidos ha puesto en marcha un ambicioso programa basado en Nanobiotecnología cuyo objetivo principal es la erradicación del cáncer antes del año 2015 basado en un combinación de los cuatro puntos anteriores en una misma plataforma que podría incluso actuar en el interior del cuerpo humano. Aunque uno de los principales motores en el desarrollo de la nanobiotecnología es mejorar la diagnosis de enfermedades y su tratamiento, las oportunidades de esta rama de la Nanotecnología se extienden por igual a otros ámbitos, como al diseño de nuevos fármacos, el control medioambiental, la cosmética, las aplicaciones en energía, las aplicaciones electrónicas, etc. Por ejemplo, mejorar el entendimiento de los procesos naturales podría facilitar el desarrollo de fabricación a escala molecular bioinspirada de nuevos materiales que pudiera emplearse como chip electrónicos reemplazando a los actuales. Ya se está trabajando en la computación molecular basada en la capacidad del ADN para almacenar y procesar información consiguiendo una codificación de los datos en cadenas de ADN y utilizando técnicas de biología molecular para llevar a cabo operaciones lógicas y aritméticas. Un ordenador de ADN podría ser miles de veces más rápido que los actuales pero con un menor consumo energético. La investigación en computación con ADN in vitro e in vivo que se está realizando hoy en día nos está proporcionando información relevante acerca de las capacidades computacionales de los seres vivos.
Nanomedicina
La Nanomedicina agrupa tres áreas principales: el nanodiagnóstico, la liberación controlada de fármacos y la medicina regenerativa. El nanodiagnóstico desarrolla sistemas de análisis y de imagen para detectar una enfermedad o un mal funcionamiento celular en los estadios más tempranos posibles. Los nanosistemas de liberación de fármacos transportan los medicamentos sólo a las células o zonas afectadas porque así el tratamiento será más efectivo y con menos efectos secundarios. La medicina regenerativa pretende reparar o reemplazar tejidos y órganos dañados aplicando herramientas nanobiotecnológicas. Además de estas áreas principales, otros grandes retos de la nanomedicina es desarrollar nanoherramientas para manipular células, individuales o en grupos de fenotipo común, mediante la interacción específica con los propios nanoobjetos naturales de las células (receptores, partes del citoesqueleto, orgánulos específicos, compartimentos nucleares.). Ya se están desarrollando nanopinzas y herramientas quirúrgicas de pequeño tamaño que permitirían localizar, destruir o reparar células dañadas.
Como muestra del interés que suscita la temática de la Nanomedicina, una de las primeras plataformas tecnológicas en ponerse en marcha cara al Séptimo Programa Marco de la Unión Europea ha sido la Plataforma Europea de Nanomedicina (www.cordis.lu/nanotechnology), agrupando a un gran número de las empresas (multinacionales y PYMES), centros de investigación y universidades que trabajan en esta temática dentro de la Unión Europea. Desde abril de 2005 funciona también la Plataforma Española de Nanomedicia (www.nanomedspain.net) que agrupa a las principales empresas y grupos de I+D trabajando en esta temática en nuestro país y que está integrada en la Plataforma Europea.
Nanosistemas de diagnostico y tratamiento
El objetivo del Nanodiagnóstico es identificar la aparición de una enfermedad en sus primeros estadios a nivel celular o molecular e idealmente al nivel de una sólo célula, mediante la utilización de nanopartículas o nanodispositivos (nanobiosensores, biochips de ADN, laboratorios-en-un-chip, nanopinzas, nanosondas...). De esta forma tendríamos una capacidad de respuesta más rápida para tratar las enfermedades y de reparar o recrecer tejidos y órganos humanos. Los nanosistemas se pueden aplicar in-vitro o in-vivo. En aplicaciones de diagnóstico in-vitro, los nanodispositivos son capaces de detectar con gran rapidez, precisión y sensibilidad la presencia de patógenos o defectos en el ADN a partir de muestras de fluidos corporales o de tejidos. En aplicaciones de diagnóstico in-vivo, se pueden desarrollar dispositivos biocompatibles que, por ejemplo, pueden penetrar en el cuerpo humano para identificar estadios iniciales de una enfermedad, identificar y cuantificar la presencia de una determinada molécula o de células cancerígenas, etc.
Maria Gabriela Medina Maldonado
C.I. 16779553
CRF

La nanotecnología: un problema muy pequeño

La nanotecnología: un problema muy pequeño
La más impactante de las nuevas tecnologías es la nanotecnología. La nanotecnología, o nanotec, es la manipulación de la materia a nivel nanométrico (un nanómetro es una millonésima parte de un milímetro), una escala en la cual es posible discernir átomos individuales
En estas páginas hemos hablado mucho acerca de las implicaciones y riesgos de los cultivos y alimentos genéticamente alterados (transgénicos). Aquellos interesados en este problema deben saber que los transgénicos son sólo parte de un paquete de nuevas tecnologías que los gobiernos de los países industrializados y las corporaciones transnacionales pretenden introducir en los próximos años. Estas tecnologías cambiarán la economía mundial, la vida humana y el planeta entero de manera más drástica y dramática aún que la biotecnología.
La más impactante de estas nuevas tecnologías es la nanotecnología. La nanotecnología, o nanotec, es la manipulación de la materia a nivel nanométrico (un nanómetro es una millonésima parte de un milímetro), una escala en la cual es posible discernir átomos individuales.
La nanotecnología es a la materia inanimada lo que la biotecnología es a los seres vivos, explica el teórico canadiense Pat Mooney, director del Grupo de Acción sobre Erosión, Tecnología y Concentración (Grupo ETC). El cuarenta por ciento de la economía mundial se basa en la explotación de recursos biológicos como por ejemplo, la agricultura, la pesca, la tala de árboles para obtener madera y papel, textiles basados en el algodón, y la derivación de químicos industriales y drogas farmacéuticas de plantas. El otro 60 por ciento se basa en la explotación de materia no viviente como la minería, el petróleo y sus productos derivados, y la manufactura. La nanotecnología busca manipular ese 60% de la economía mundial de la misma manera que la ingeniería genética lo hace con seres vivos. Los científicos involucrados en la investigación en este nuevo campo buscan crear nanorobots, o nanobots, máquinas microscópicas capaces de realizar faenas de nanotecnología y hasta fabricar copias de sí mismas, lo cual extendería sus capacidades prácticamente hasta el infinito.
La nanotecnología se discute en círculos científicos por lo menos desde 1959, cuando el físico Richard Feynman (Premio Nobel, 1965) propuso la manipulación de átomos individuales en una lectura titulada There's plenty of room at the bottom . En 1986, el científico Eric Drexler publicó The Engines of Creation , considerado hoy todavía la biblia de los nanotecnólogos.
En teoría, las nanomáquinas podrían transformar basura y hasta moléculas de aire en objetos útiles y variadísimos, como diamantes, secadores de pelo o alimentos. Podrían manufacturar productos más resistentes, duraderos y versátiles que cualquier cosa conocida hoy día. Los proponentes de esta tecnología prometen, entre otras cosas:
* Fin a las enfermedades (los nanobots dentro de nuestros cuerpos combatirán los patógenos y células cancerosas)
* Fin al envejecimiento (los nanocirujanos reconstruirán nuestros tejidos dañados)
* La erradicación de la contaminación (los nanobots transformarán los contaminantes en sustancias benignas)
* Fin al hambre (fin de la agricultura también)
"Los nanobots, introducidos en nuestro flujo sanguíneo, podrían complementar nuestro sistema inmunológico, y buscar y destruir patógenos, células cancerosas y otros agentes causantes de enfermedades", dice el entusiasta inventor Ray Kurzweil. "Podremos reconstruir cualquiera o todos nuestros órganos y sistemas, y hacerlo a nivel celular".
"Comida, ropa, anillos de diamante y edificios, todos podrían autoensamblarse molécula por molécula", continúa Kurzweil. "Cualquier tipo de producto podría ser instantáneamente creado cuando y donde lo necesitemos. De hecho, el mundo podría autoreensamblarse para atender nuestras cambiantes necesidades, deseos y fantasías. Para fines del siglo XXI, la nanotecnología permitiría que los objetos como muebles, edificios, ropa, hasta gente, cambiasen su apariencia y otras características- esencialmente cambiar a otra cosa- en una fracción de segundo".
Cambiar la agricultura
En diciembre de 2002, el Departamento de Agricultura de Estados Unidos (USDA) publicó su visión nanotecnológica: la agricultura será más automatizada e industrializada, y se reducirá a funciones fragmentadas, eliminando aun más personas del trabajo agrícola. Según Silvia Ribeiro, del Grupo ETC, "siguiendo la tendencia que tomó vigor con la ingeniería genética, de un control corporativo desde la semilla hasta el producto en el supermercado, la agricultura nanotecnológica controlaría incluso los átomos que componen esos productos."
En un artículo publicado en el diario mexicano La Jornada , Ribeiro sostiene que "todas las corporaciones que dominan el negocio mundial de los transgénicos están invirtiendo en nanotecnología. Monsanto [empresa estadounidense de biotecnología] tiene un acuerdo con la empresa nanotecnológica Flamel para desarrollar su herbicida Roundup en una nueva formulación en nanocápsulas... Pharmacia [farmacéutica estadounidense ahora parte de Pfizer] tiene patentes para fabricar nanocápsulas de liberación lenta usadas en agentes biológicos como fármacos, insecticidas, fungicidas, plaguicidas, herbicidas y fertilizantes. Syngenta [empresa europea de biotecnología] patentó la tecnología Zeon, microcápsulas de 250 nanómetros que liberan los plaguicidas que contienen al contacto con las hojas. Ya están a la venta con el insecticida Karate, para uso en arroz, pimientos, tomates y maíz. Syngenta también tiene una patente sobre una nanocápsula que libera su contenido al contacto con el estómago de ciertos insectos".
Syngenta argumenta que estas nanocápsulas harán más seguro el manejo de plaguicidas peligrosos, pero advierte el Grupo ETC que éstas justifican el que se sigan usando agrotóxicos y que se reintroduzcan plaguicidas de alta peligrosidad. En un informe sobre las aplicaciones nanotecnológicas en la agricultura, la organización plantea que, debido a su minúsculo tamaño, las nanopartículas pueden pasar por el cuerpo humano desapercibidas por el sistema inmunológico, y moverse a través de la piel, los pulmones y otros órganos.
El USDA también está desarrollando nanosensores que se liberan en los campos de cultivo para medir los niveles de agua, nitrógeno, posibles plagas, polen y agroquímicos, emitiendo señales que son captadas por computadoras remotas. Esta aplicación fue diseñada originalmente para la industria bélica con el nombre de Smart Dust para monitorear las condiciones de los campos de batalla, presencia enemiga, armamento, y más.
Las transnacionales de la industria de los alimentos buscan usar la nanotecnología para cambiar la estructura de sus productos. Kraft está desarrollando bebidas ?interactivas? que cambian de color y sabor. Por ejemplo, un líquido con átomos suspendidos que se convierte en la bebida requerida (café, jugo de naranja, whisky, leche u otras) al someterlo a ciertas frecuencias de onda. Nestlé y Unilever desarrollan emulsiones en nanopartículas para cambiar la textura de helados y otros alimentos.
¿Se puede detener la nanotecnología, o es ya muy tarde? Mooney advierte que, dado el gran apoyo económico y político de que goza esta tecnología, sí se utilizará, para bien o para mal. Considerando la tendencia actual de las megacorporaciones a fusionarse en conglomerados más grandes y polifacéticos, es de esperarse que las industrias de biotecnología y nanotec se fusionen en los próximos años. Una vez eso ocurra, será natural y lógico que fusionen también sus líneas de productos, dando lugar a la creación de híbridos nanobiológicos inconcebibles hoy día.
En las palabras de los profesores españoles Nicolás García García y José Antonio Rausell Colóm, "se está intentando producir robots mixtos; i.e con chips de silicio para las unidades de memoria y con componentes moleculares autorreplicantes para algunas de sus partes móviles. El camino actual es el de la interdisciplina para la fabricación de tales productos mixtos, explorando posibilidades. Se van a utilizar conjuntamente las técnicas de la experimentación genética y de la manipulación nanotecnológica para la producción de moléculas más sencillas que el ADN y que se puedan autorreplicar mas rápidamente y autoensamblarse con las unidades de memoria en diminutos robots con un funcionamiento predeterminado. A esto es a lo que se le denomina GNR (genética-nanotecnología- robótica) en el siglo XXI. Tales robots se obtendrán por billones, o en el número deseado de unidades, por procedimientos genéticos de replicación y autorregulación, una vez que se haya logrado obtener el primer prototipo. Éste es el procedimiento que sigue la pauta de la naturaleza, pero tendrá lugar a mayor velocidad, y será difícil de controlar".
Según un informe coescrito por García García y el científico Heinrich Rohrer, Premio Nobel de Física, los adelantos inminentes de la nanotecnología harán posibles dentro de pocos años integraciones en terabits (un millón de millón de bits) por centímetro cuadrado. Según ambos científicos, un terabit es igual a la cantidad de memoria de un cerebro humano. "Con tal memoria será posible mantener conversaciones audiovisuales mientras paseamos o ver la televisión con un chip integrado en el ojo, por ejemplo. La conversación podría ser entre un chino y un español cada uno en su propio idioma".
¿Y qué tal si nanobots autorreplicantes se reproducen fuera de control? Entonces enfrentaríamos peligros y formas de contaminación ambiental imposibles de imaginar hoy. Ya en 1991, el autor Jerry Mander, un favorito de los lectores ecologistas y oponentes de la globalización neoliberal, advirtió sobre los riesgos de la nanotecnología en su libro In the Absence of the Sacred . Bill Joy, científico principal de la corporación Sun Microsystems, expresó preocupación sobre los peligros potenciales de esta tecnología en un ensayo que lleva el título tétrico de Why the future doesn't need us , publicado en la revista técnica Wired en el año 2000.
Según Joy, "las tecnologías del siglo XXI- genética, nanotecnología y robótica (GNR)- son tan poderosas que pueden dar lugar a nuevos tipos de abusos y accidentes". En su ensayo, sostiene que todavía no hemos caído en cuenta de que estas tres tecnologías "representan una amenaza distinta de otras tecnologías que han venido antes", ya que los nanobots y los organismos transgénicos pueden autorreplicarse. "Una bomba sólo puede estallar una vez. Pero un bot se puede convertir en muchos, y rápidamente salirse de control."
Mooney plantea que "en un mundo biónico donde se funden la nanotecnología y la biotecnología, veremos biocomputadoras a nanoescala y biosensores capaces de monitorear todo, desde reguladores del crecimiento en las plantas hasta asambleas políticas... ¿Qué pasa si no se puede detener a los nanobots? ¿Qué implicaciones tiene esto para los planes militares y el terrorismo, especialmente el terrorismo de estado? El propio poder de la nanotecnología de hacer todas las cosas físicas, visibles e invisibles, en forma barata e inagotable, es también la mayor amenaza que conlleva".
Pero la historia no termina ahí. Hay más adelantos tecnológicos a la vuelta de la esquina que también prometen tener impactos sin precedentes: informática, inteligencia artificial, robótica, vigilancia desde el espacio, sistemas de posicionamiento global, neurociencia y modificación del comportamiento humano ( human performance enhancement ). El uso combinado de estas tecnologías en manos de corporaciones cada vez más grandes y consolidadas harán que el mundo que George Orwell dibujó en su clásica novela 1984 parezca un día de playa.
Maria Gabriela Medina Maldonado
C.I. 16779553
CRF

UN PEQUEÑO PASEO POR EL NANOMUNDO


UN PEQUEÑO PASEO POR EL NANOMUNDO


La nanoquímica:

La nanoquímica adquirió su cara de legitimidad en la capacidad, desarrollada durante los
últimos decenios por los químicos, de sintetizar estructuras de una complejidad y
arquitectura inéditas. En 2004, la Academia de Ciencias en Francia informó que
actualmente "el arsenal sintético permite obtener cualquier arquitectura química" y que "la
química ha dejado en parte el campo de la exploración para volverse una ciencia de
creación"[3]. Se establece la posibilidad de crear estructuras que presentan capacidades de
auto-ensamblaje y, en cierta medida, de auto-organización.
La nanoquímica tiene frente a sí grandes desafíos, entre otros, los siguientes:
• Conformar nuevos métodos de síntesis, en algunos casos inspirados en procesos
vigentes en el mundo vivo (métodos biomiméticos), a fin de obtener estructuras
inéditas ligando, particularmente, átomos de diversos metales.
• Desarrollar el auto-ensamblaje y la auto-organización de nuevas moléculas,
conduciendo a estructuras de tamaño importante.
• Concebir y diseñar nanomateriales con propiedades fisicoquímicas específicas.
Los ámbitos de aplicación de los avances y logros en nanoquímica son enormes, por sólo
citar algunos, tenemos los catalizadores, el nanomagnetismo, la electrónica molecular y la
óptica.

La nanofísica:
Como mencionamos anteriormente, a nivel nanométrico los objetos presentan
características físicas específicas que no presentan los objetos considerados en otra escala.
Por tanto, la nanofísica no sólo considera las propiedades de los átomos y de las moléculas
involucradas, sino que considera también el estudio del comportamiento de estos objetos en
escala nanométrica, el cual cambia cualitativamente respecto del que se presenta en otras
escalas. En este nuevo mundo, la mecánica cuántica se vuelve actor principal1. Se piensa
que se podrán manipular los estados cuánticos de la materia, abriendo el camino a métodos
de cálculo cuyos resultados no tendrán nada que ver con los alcanzados actualmente por
medio de las computadoras. Obviamente, esta disciplina no habría podido desarrollarse, de
la manera tan espectacular como lo ha hecho en estos últimos años, sin el
perfeccionamiento de los métodos de observación, experimentación y manipulación de
objetos individualizados.
En el área de la microscopia en campo lejano, como la microscopia electrónica, se han
logrado establecer métodos que permiten el estudio de la materia en límites subnanométricos
(0.1 nm). Los métodos y técnicas anteriores se han visto complementados por
los estudios en campo próximo, como fue, por ejemplo, la microscopia de efecto túnel. Este
método permite sondear la superficie de un objeto moviendo una punta muy fina a una
distancia de nanómetros de dicha superficie y medir las perturbaciones que presenta la
corriente eléctrica que circula entre esta punta y el objeto estudiado. Este procedimiento
permite obtener información de superficies con una resolución vertical del orden de 0.01
nm. Los microscopios diseñados para llevar a cabo este procedimiento permiten no sólo
observar los átomos constitutivos de estas superficies sino también permiten manipularlos
individualmente y, por lo tanto, disponer de ellos para lograr conformar un orden preestablecido
por el experimentador Mientras el microscopio de efecto túnel permite observar la superficie de
los materiales conductores, el microscopio de fuerza atómica permite observar la superficie de materiales 7
aislantes, como son los polímeros, las cerámicas y los algunos materiales biológicos. En
este caso, la punta que escanea la superficie del objeto es colocada sobre cantiléver flexible,
lo cual permite registrar el relieve que presenta la superficie. Con este registro puede
construirse una imagen, a escala nanométrica, de la superficie estudiada.

La nanobiologia :


Si se observa una célula viviente bajo microscopio óptico, existen numerosos fenómenos
dinámicos activos, como lo son, entre otros, la división y los movimientos celulares, el
transporte de objetos en la célula o la formación y la desaparición de estructuras
intracelulares (organelos, etc.)2. Macromoléculas complejas, que juegan el papel de
pequeñas máquinas a escala molecular, están en el origen de estos fenómenos activos.
Muchísimas de estas moléculas que actúan en la célula viviente, por su pequeño tamaño,
del orden de unos nanómetros, son invisibles en el microscopio. Los prototipos de estas
moléculas son los motores moleculares que consumen combustible químico que
transforman en trabajo mecánico.

Existe una diversidad de motores moleculares: motores lineales, que se mueven a lo largo
de filamentos rígidos; motores rotativos, que dan vuelta en una membrana celular; sistemas
de motores que generan movimientos de oscilación, que permiten nadar a ciertos
organismos unicelulares. Finalmente hay moléculas que se mueven a lo largo de la doble
hélice del ADN, el portador del código genético. Estas moléculas abren la hélice, duplican
el código o crean una copia en una hebra de ARN. El estudio de las propiedades físicas,
mediante técnicas de nanomanipulación, de moléculas individuales es importante para
entender mejor su funcionamiento en estructuras biológicas complejas.
Las nanotecnologías:

La nanotecnología involucra un amplio campo de investigación y desarrollo que implica la
participación de la nanoquímica, nanofísica y nanobiología, a fin de diseñar y elaborar
estructuras, dispositivos y sistemas, a partir de procedimientos diversos, que permiten estructurar
 la materia a escalas del orden de 1 a 100 nm, aproximadamente. Con base en las
características de la materia, propias de la escala nanométrica, se puede pensar en múltiples
aplicaciones de dicha tecnología al ámbito, por ejemplo, de la tecnología de la información
y la comunicación: elaboración de dispositivos electrónicos más pequeños con funciones
electrónicas específicas asignadas, etc.
Por supuesto, existen otros tantos campos en donde la tecnología de los materiales
nanoestructurados puede aplicarse; valga la pena mencionar, por ejemplo, el campo de la
energía, ya sea producción, almacenamiento, transporte o utilización. Los materiales
nanoestructurados presentan ahorro en términos de peso, de consumo de materia prima y, por
supuesto, de energía globalmente consumida. Existe la posibilidad de diseñar
nanodispositivos semejantes a nanomotores que pueden estar incluidos en diversos tipos de
microsistemas.

La existencia de nanomateriales o materiales nano-estructurados no es algo nuevo. La
nano-estructuración de materiales de origen biológico es más una regla que la excepción;
por ejemplo, la madera, el hueso, la cáscara de huevo son todos materiales nanoestructurados.
Por otro lado, algunos materiales fabricados por el hombre, como son ciertos
vidrios o esmaltes, poseen su color, resistencia y otras características particulares debido a
su nano-estructuración. Toda esta tecnología de nanomateriales encuentra en la actualidad
una enorme importancia gracias a su capacidad de concepción, diseño, elaboración y
funcionalización de materiales con características y funciones específicas.
Como puede apreciarse, las aplicaciones son múltiples y diversas. Sin duda, uno de los
campos que será verá influenciado por todo este desarrollo será el de la salud. Uno se puede
preguntar ¿cuáles serán los progresos médicos consiguientes y cuáles serán sus impactos
sociales?

Nanociencias y medicina:
El encuentro de la física y de la biología no es algo nuevo. Al inicio del siglo XX, el
encuentro fructuoso entre la química y la biología permitió la elaboración de substancias no
derivadas necesariamente de extractos de plantas, sino por síntesis química. Lo anterior
condujo a la enorme expansión y diversificación de la producción farmacéutica hoy
existente. A mediados del siglo XX, los métodos de la física se aplicaron exitosamente al
estudio de la materia viviente, iniciando el camino de lo que se denominaría biología
molecular, cuyo mayor resultado fue la propuesta del modelo tridimensional del ADN;
extendiendo así el conocimiento de la difracción de los rayos X en el área de la
cristalografía al campo de la biología.
Actualmente se presenta nuevamente una convergencia entre las nanociencias y las ciencias
de lo viviente. Los componentes de los organismos vivos son de tamaño micrométrico y
sub-micrométrico. Nuestros vasos sanguíneos y bronquios son estructuras capilares, de
escala micrométrica, que transportan líquidos o gases. Las células, unidades funcionales de
los seres vivos son glóbulos de algunos micrómetros de diámetro. En su seno, se efectúan
reacciones químicas en compartimentos que no exceden la dimensión de nanolitros. La
incorporación de diversos componentes a la célula, como pueden ser diversos mediadores
químicos, metabolitos o medicamentos, que participan en la regulación o modificación de
diversas funciones celulares, atraviesan la membrana celular a través de poros cuya
dimensión está en escala nanométrica. Gran cantidad de bacterias y virus son entidades que
por su tamaño se encuentran desde la escala micro hasta la escala nanométrica.
Dado todo lo anterior, no es extraño el encuentro entre la nanotecnología y las ciencias
biológicas para conformar en nuevo campo denominado nanobiotecnología.
Maria Gabriela Medina Maldonado 
C.I. 16779553
CRF 

Crean alas de mariposa nanométricas

Crean alas de mariposa nanométricas
Un equipo de investigadores de la Universidad Estatal de Pensilvania (EE UU) y de la Universidad Autónoma de Madrid (UAM) ha desarrollado una técnica para replicar estructuras biológicas, como las alas de las mariposas, a escala nanométrica. El biomaterial resultante se podría usar para fabricar estructuras ópticamente activas, como los difusores ópticos de los paneles solares.
Los colores de los insectos y su capacidad para ser iridiscentes (variar de coloración según el ángulo) o parecer metálicos vienen determinados por unas diminutas estructuras fotónicas de tamaño nanométrico (1 nanómetro=10-9 m) que se encuentran en su cutícula. Los científicos se han fijado en estas bioestructuras para desarrollar unos dispositivos con propiedades lumínicas que acaban de presentar en la revista Bioinspiration & Biomimetics.
"Es una técnica desarrollada en el Materials Research Institute de la Universidad Estatal de Pennsylvania (EE UU), que permite crear replicas de las estructuras biológicas a un nivel nanométrico", explica a SINC Raúl J. Martín-Palma, profesor del Departamento de Física Aplicada de la UAM y coautor del estudio.
Los investigadores han fabricado "replicas independientes de biomodelos quitinosos, laminares y frágiles", es decir, copias de las nanoestructuras de las alas de las mariposas. La apariencia de estos apéndices suele depender más de su estructura periódica nanométrica (determina el color de origen "físico") que de los pigmentos de las alas (establecen el color de origen "químico").
Para crear el nuevo biomaterial el equipo ha utilizado compuestos basados en germanio, selenio y antimonio (GeSeSb) y ha empleado una técnica denominada CEFR (por sus siglas en inglés: conformal-evaporated-film-by-rotation), que combina la evaporación térmica y la rotación del sustrato elegido en una cámara a baja presión. También han aplicado una disolución de quitina (sustancia característica del exoesqueleto de los insectos y otros artrópodos) en una solución acuosa de acido ortofosfórico.
Hasta ahora los métodos utilizados para replicar bioestructuras están muy limitados para obtener copias efectivas a tamaños nanométricos, y a menudo dañan las estructuras biológicas originales porque se realizan en ambientes corrosivos o a elevadas temperaturas. La nueva técnica supera "totalmente" esos problemas, ya que se realiza a temperatura ambiente y no requiere el uso de sustancias tóxicas.
Martín-Palma indica que las estructuras resultantes de la copia del biomodelo del ala de mariposa se podrían utilizar para fabricar diversas estructuras ópticamente activas, como difusores ópticos o recubrimientos que maximicen la absorción de luz de las células solares, u otro tipo de dispositivos. "Además, la técnica puede aplicarse para copiar otras estructuras biológicas, como caparazones de escarabajos u ojos compuestos de moscas, abejas y avispas", subraya el investigador.
Los ojos compuestos de algunos insectos son buenos candidatos para un gran número de aplicaciones ya que proporcionan una gran capacidad de detección angular. "El desarrollo de cámaras miniaturizadas y sensores ópticos basados en estos órganos permitirían su integración en pequeños espacios en automóviles, teléfonos móviles y displays, además de tener aplicación en áreas como la medicina (desarrollo de endoscopios) y la seguridad (vigilancia)", destaca Martín-Palma.
Maria Gabriela Medina Maldonado
C.I. 16779553
CRF

Brain Implants

Brain Implants
In a Kurzweillian future, the world would become a very strange place, where converging advances in nanotechnology, biotechnology and computer science combine to propel humanity to its next stage of evolution. "By the end of this century, I don't think there will be a clear distinction between human and machine," Kurzweil told the Foresight Institute's Eighth Conference on Molecular Nanotechnology.
[By 1969,] the miracle of giving light to the blind i, ii, iii, iv or sound to the deaf ha[d] been made possible by implantation of electrodes, demonstrating the technical possibility of circumventing damaged sensory receptors by direct electrical stimulation of the nervous system. Computers that become part of our bodies are not so far-fetched.… Surgeons have performed [more than 50,000 ] cochlear implants on patients with hearing loss.v "These people are already walking around with chips in their heads," [Peter Cochrane, head of research at British Telecommunications PLC,] says.
Giving completely paralyzed patients full mental control of robotic limbs or communication devices has long been a dream of those working to free such individuals from their locked-in state. There is little doubt that direct brain-machine interfaces will be available in the very near future.


Researchers at the University School of Medicine in Philadelphia demonstrated that signals from neuron groupings in rats brains can be used to control a physical device without the rats carrying out a physical action themselves. "This study breaks new ground in several areas," said Dr. Eberhard Fetz, Department of Physiology and Biophysics, University of Washington School of Medicine, who authored a commentary on the research in the "News and Views" section of Nature Neuroscience. "Unlike comparable studies, this is the first demonstration to prove that simultaneous recordings from large ensembles of neurons can be converted in real time and online to control an external device. Extracting signals directly from the brain to control robotic devices has been a science fiction theme that seems destined to become fact."
[Miguel Nicolelis and colleagues] at Duke University in North Carolina wired monkey brains to control robotic arms that mimicked the motions of their real arms (another search; see also another similar study). "It was an amazing sight to see the robot in my lab move, knowing that it was being driven by signals from a monkey brain at Duke," said [Massachusetts Institute of Technology's] Touch Lab director and co-researcher Mandayam Srinivasan. "It was as if the monkey had a 600-mile- (950-km-) long virtual arm."

John P. Donoghue, a neuroscientist at Brown University developing a similar system, said paralyzed patients would be the first to benefit by gaining an ability to type and communicate on the Web, but the list of potential applications is endless, he said. The devices may even allow quadriplegics to move their own limbs again by sending signals from the brain to various muscles, leaping over the severed nerves that caused their paralysis.

Both he and Nicolelis hope to get permission from the Food and Drug Administration to begin experiments in people [in 2004]. Nicolelis also is developing a system that would transmit signals from each of the hundreds of brain electrodes to a portable receiver, so his monkeys — or human subjects — could be free of external wires and move around while they turn their thoughts into mechanical actions.
Scientists say they have developed a technology that enables a monkey to move a cursor on a computer screen simply by thinking about it.… Using high-tech brain scans, the researchers determined that [a] small clump[] of cells…were active in the formation of the desire to carry out specific body movements. Armed with this knowledge, [researchers at the California Institute of Technology in Pasadena] implanted sensitive electrodes in the posterior parietal cortex of a rhesus monkey trained to play a simple video game.… A computer program, hooked up to the implanted electrodes,…then moved a cursor on the computer screen in accordance with the monkey's desires — left or right, up or down, wherever "the electrical (brain) patterns tells us the monkey is planning to reach," according to [researcher Daniella] Meeker. [Dr. William Heetderks, director of the neural prosthesis program at the National Institute of Neurological Disorders and Stroke,] believes that the path to long-lasting implants in people would involve the recording of data from many electrodes. "To get a rich signal that allows you to move a limb in three-dimensional space or move a cursor around on a screen will require the ability to record from at least 30 neurons," he said.

Dr. Philip R. Kennedy, an [sic] clinical assistant professor of neurology at Emory University in Georgia, reported that a paralyzed man was able to control a cursor with a cone-shaped, glass implant (See also another similar study). Each [neurotrophic electrode] consists of a hollow glass cone about the size of a ball-point pen tip. The implants…contain an electrode that picks up impulses from the nerve endings. Before they are implanted, the cones are coated with chemicals — taken from tissue inside the patients' own knees — to encourage nerve growth. The implants are then placed in the brain's motor cortex — which controls body movement — and over the course of the next few months the chemicals encourage nerve cells to grow and attach to the electrodes. A transmitter just inside the skull picks up signals from the cones and translates these into cursor commands on the computer.16
Scientists at Northwestern University crafted a two-wheeled robot that operated partly on the electrical signals of a displaced lamprey's brain (pic, video). The part of the brain used in the experiment normally keeps the lamprey upright in the water. When connected up correctly, the organ can guide the robot towards a light source.
Scientists at the University of Tokyo are exploring ways that la cucaracha can become more socially redeeming. Using hardy American roaches, scientists remove their wings, insert electrodes in their antennae (more pics, schematics) and affix a tiny backpack of electric circuits and batteries to their carapace. The electrodes prod them to turn left and right, go backward and forward. The plan is to equip them with minicameras or other sensory devices vi [Later that same year, the motion picture The Fifth Element (1997) featured a remote-controlled cockroach equipped with a camera.]

Scientists at the Max Planck Institute have…demonstrated electronic-based neuron transistors that can control the movement of a live leech from a computer. They can detect the firing of a nearby neuron, cause it to fire, or suppress a neuron from firing — all of which amounts to two-way communication between neurons and neuron transistors.
Rats steered by a computer…could soon help find buried earthquake victims or dispose of bombs, scientists said [1 May 2002]. The remote-controlled "roborats" (more pics, audio, video) can be made to run, climb, jump or turn left and right through electrical probes, the width of a hair, implanted in their brains. Movement signals are transmitted from a computer to the rat's brain via a radio receiver strapped to its back. One electrode stimulates the "feelgood" center of the rat's brain, while two other electrodes activate the cerebral regions which process signals from its left and right whiskers. "They work for pleasure," says Sanjiv Talwar, the bioengineer at the State University of New York who led the research team.… "The rat feels nirvana."  Asked to speculate on potential military uses for robotic animals, Dr Talwar agreed they could, in theory, be put to some unpleasant uses, such as assassination.
Maria. Gabriela Medina Maldonado
C.I. 16779553
CRF

Wound healing complications associated with lower limb amputation

Wound healing complications associated with lower limb amputation
Abstract

The majority of patients undergoing amputation of the lower limb have peripheral vascular disease, often resulting in significant morbidity and mortality. The incidence of amputations is higher in smokers, rises with age and is higher in men than women. Furthermore, people with diabetes form just less than half of all amputees. Consequently, it is not surprising to find that such patient risk factors can result in an array of wound-healing difficulties, thus prolonging debilitation and reducing quality of life. The UK's increasingly ageing population means that more elderly patients will be operated on in the future, thus giving rise to a growing trend in postoperative tissue viability problems where skin fragility and multiple pathologies such as diabetes and peripheral vascular disease co-exist. Hence wound healing complications associated with amputation are becoming more commonplace, requiring sophisticated management strategies to meet the needs of these vulnerable patients. The most important factor in ensuring a successful amputation is the correct choice of amputation site based on assessment of limb perfusion and functional requirements. The following factors will affect the outcome of amputation: the patient's nutritional status, age, tissue perfusion, smoking habits, infection and the presence of co-existing diseases such as anaemia and renal failure. This paper describes a number of problems associated with amputation wound healing, including infection, tissue necrosis, pain, difficulties associated with the surrounding skin, bone erosion, haematoma, oedema and dehiscence/wound breakdown. It draws on the available literature to guide best practice in this complex area of surgical wound care and highlights the importance of multidisciplinary team working.
Introduction

Amputation is the term given to the severance of a limb, or part of a limb, from the rest of the body . Amputations above or below the knee are termed major. Minor amputations involve partial removal of a foot, including toe or forefoot resections . Amputation is performed on patients with advanced critical limb ischaemia who cannot be treated with reconstructive vascular surgery (to restore blood flow to the leg) or in whom vascular surgery has failed, for patients with diabetic foot infections, extensive venous ulceration or following major trauma .
Epidemiology

The lower limb amputee population in England is thought to be around 52,000 . Patients who have undergone lower limb amputation account for 92% of all amputees referred to prosthetics centres in the UK . Significant geographical variation in lower extremity amputation rates has been reported in the UK, with variability in clinical decision-making a likely factor (though further research is required to explore the reasons for this) . The incidence of amputation is higher in smokers (6), rises steeply with age, with most amputations occurring in patients aged more than 60 years, and is higher in men than women . Diabetes is a significant factor in lower-limb amputation . People with diabetes constitute 50% of all major lower limb amputees . Diabetes-related lower extremity amputation rates have been found to be 12.5 to 31.6 times those of patients without diabetes.
Aetiology
Approximately 85-90% of lower limb amputations in the developed world are caused by peripheral vascular disease, with the remaining amputations caused by infection secondary to diabetic foot ulceration. The incidence of lower limb amputation arising from vascular impairment or lower limb ischaemia increased from 56% in 1998/99 to 75% in 2004/05 in the UK . The authors point out that this increase could be attributed to improved data recording from prosthetic centres. Table 1 gives statistics from the Amputee Statisitical Database for 2004¬-2005.
Types of lower limb amputation

Amputation is performed at a number of different levels (see Figure 1). The most common continues to be the trans-tibial level, accounting for almost half of all referrals to the prosthetic services in the UK . Determining the ideal level of amputation for a patient depends on a number of factors. An holistic assessment considers factors such as healing potential, rehabilitation potential, prosthetic considerations, the patient's own wishes, discharge arrangements , and the extent of non-viable tissue on the affected limb . Consideration must be given to knee and hip function and the presence of joint prostheses. The final choice of the level of amputation is considered to be a compromise between ensuring primary wound healing and maximising the patient's function postoperatively.
Wherever possible, patients should be empowered to make an informed decision about the level of amputation. People to involve in this process would be the surgeon, the vascular nurse, who can offer pre-operative counselling, the physiotherapist and possibly an 'expert' patient who has undergone amputation.
All patients undergo a vascular surgical assessment before amputation  , which may incvolve a number of procedures, including transcutaneous oxygen (TcP02) measurements , laser Doppler flowmetry and segmental pressures and ankle brachial pressure indices.
Wound healing complications in the lower limb amputee
Surgical wounds that heal by primary intention are expected to heal successfully without complications . However, there is little evidence to demonstrate that this actually happens in practice. Although wound infection is acknowledged to be a significant problem in surgical wounds, there are anecdotal reports that other complications such as dehiscence, the splitting open of a closed wound, and skin blistering occur, yet these problems do not feature widely in the literature.
It has been estimated that over six million operations were undertaken in the NHS in England and Wales in 1998-99 . However, advances in surgery would suggest that the number of surgical procedures and their resulting wounds are set to increase. The National Institute for Health and Clinical Excellence (NICE) estimates that, based on data from a surgical department of a district general hospital, there may be 21,000 difficult-to-heal surgical wounds per annum in England and Wales (25). NICE acknowledge that this number may be a significant underestimate. The UK has an ageing population, which suggests that an increasing number of elderly patients will be operated on in the future, thus producing a rise in postoperative tissue viability problems where skin fragility and multiple pathologies co-exist. Indeed, both Harding (1993) and Mulder et al (1998) have alluded to the need for awareness of demographic changes in relation to woundcare developments – tissue friability and prolonged wound repair associated with ageing are acknowledged to be key problems .
Within the population of patients with peripheral vascular disease, major lower extremity amputation results in significant perioperative morbidity and mortality. Patients are often extremely debilitated, with multiple co-existing cardiovascular risk factors. The prognosis following amputation is poor: nearly a third of unilateral amputees lose the other limb within three years and half of them will die within five years.
Wound healing complications associated with the stump of an amputee are important because in some cases these determine a patient's ability to walk with a prosthetic limb . One study concerning lower limb amputation found that the commonest stump-related complications were wound infection and poor healing (70%), poorly fashioned stumps (20%) and phantom pain (10%) . The healing rates for below- and above-knee amputations vary considerably. It is thought that a total of 90% of above-knee major amputations heal, 70% primarily, whereas for below-knee amputations, primary healing rates range between 30% and 92%, with a re-amputation rate of up to 30%.
Important factors in healing and outcome of amputation include the patient's nutritional status, age, whether or not the patient smokes, the presence of old potentially infected graft material and the presence of co-existing diseases such as renal failure, diabetes and anaemia . Site selection is considered a crucial factor as healing depends on the adequacy of perfusion. Healing also depends on the technical precision of the surgeon . The type of surgical technique used for below-knee amputation has not been found to have an effect on stump healing, wound infection, re-amputation rate or mobility with a prosthetic limb and is considered to be a matter of surgeon preference . Chalmers and Tambyraja conclude that no system is foolproof in predicting amputation healing .
Conclusion

Wounds associated with amputation of the lower extremity continue to be a challenge. Patients who endure such wounds are often in poor health, with co-existing medical pathologies. Wound healing outcomes for amputees can be improved through multidisciplinary teams working together. Such healthcare professionals need to be equipped with the appropriate knowledge and skills in wound management to meet the needs of this vulnerable patient population. Surgical wound management in the lower extremity amputee has moved into a new era where complications such as infection, tissue necrosis and dehiscence are demanding more sophisticated therapies.
Maria Gabriela Medina Maldonado
C.I. 16779553
CRF

Thyroid Remnant Ablation: A Randomized Comparison of Thyrotropin Alfa and Thyroid Hormone Withdrawal.


Thyroid Remnant Ablation: A Randomized Comparison of Thyrotropin Alfa and Thyroid Hormone Withdrawal.
Radioablation of remnant thyroid tissue is often performed after thyroidectomy in patients with epithelial thyroid carcinomas (TC) to eradicate microscopic cancer and improve specificity of monitoring for recurrence. Withholding thyroid hormone therapy postoperatively increases endogenous TSH and stimulates thyroidal 131I uptake, but causes hypothyroidism. We postulated that thyrotropin alfa (rTSH) would be as effective for remnant ablation. Sixty-three patients with TC who had thyroidectomy within 2 weeks were randomized to either 1) hypothyroidism (THW), in which thyroid hormone was withheld until serum TSH was 25 mU/L at 4-6 weeks; or 2) euthyroidism with rTSH, in which thyroid hormone was advanced until TSH was 5 mU/L, after which rTSH was given (Thyrogen®, 0.9 mg qd x 2). Patients then received 100 mCi 131I 24h later. Success of radioablation was evaluated after rTSH at 8±1 mos., based on three criteria: 1) no visible 131I uptake in the thyroid bed; 2) 48h thyroid bed 131I uptake invisible, or if visible, <0.1%; and 3) serum Tg <2 ng/mL 72 hours after rTSH. Mean TSH concentrations in THW and rTSH patients before 131I ablation (and rTSH in that group) were 83±75 and 1.1±1.3 mU/L, respectively.[table1]There were no clinically relevant differences between the ablation rates in THW and rTSH patients. For the two objective criteria, i.e., thyroid bed uptake and serum Tg, ablation occurred in more than 87% of patients in both groups. Based on subjective visible thyroid bed uptake, ablation rates were lower with both techniques. Billewicz hypothyroidism scores were higher at 4 weeks for THW than rTSH patients, 27±7 v. 18±4, respectively (p<0.0001). In conclusion, this multicenter prospective randomized trial found comparable thyroid remnant ablation rates whether TC patients were prepared for postoperative 131I therapy by hypothyroid THW or euthyroid rTSH.
Lasofoxifene, a Next Generation Selective Estrogen Receptor Modulator (SERM), in the Prevention of Bone Loss in Postmenopausal Women
Mark Ettinger*1, Elliott Schwartz2, Ron Emkey3, Alfred H Moffett4, Michael Bolognese5, Stuart R Weiss6, Andrew Lee7. 1Stuart, FL; 2Fdn for Osteoporosis Res and Treatment, Oakland, CA; 3Reading, PA; 4OB-Gyn Assoc of Mid Florida, FL; 5the Bethesda Hlth Res Ctr, Bethesda, MD; 6Radiant Res, San Diego, CA; 7Pfizer Inc, New London, CT.
Objective

Lasofoxifene is a potent next generation SERM under development for prevention and treatment of postmenopausal osteoporosis. Results of 1yr, Phase 2, randomized, doubleblind, placebo-controlled study examining efficacy in bone loss prevention and safety of lasofoxifene are reported.
Methods
Postmenopausal women (n=190), mean age 50-68 yrs and 6-8 yrs postmenopausal, were randomized to receive lasofoxifene (0.4, 2.5, and 10 mg/d), or conjugated estrogen/medroxyprogesterone (PremPro;0.625/2.5 mg/d), or placebo, plus calcium and vit D daily. Primary end point was % change in BMD of lumbar spine and total hip at 1yr. Secondary analyses included change in markers of bone turnover and lipid metabolism at 1 yr, safety and tolerability.
Results


All lasofoxifene doses increased in lumbar spine BMD statistically significantly compared with pbo (P<0.001); there was no significant difference between groups for hip BMD. All lasofoxifene doses decreased biochemical markers of bone turnover (P<0.01) and LDL-cholesterol (P<0.001) statistically significantly compared with pbo. Similar to spine BMD, this effect was 2/3 of effect with PremPro. Overall safety of lasofoxifene was comparable to pbo. Incidence rates for uterine/ovarian change were low with lasofoxifene. Most commonly reported AEs associated with lasofoxifene were hot flushes, leg cramps, and leukorrhea and with PremPro included breakthrough bleeding and breast pain.
Conclusions
1yr treatment with lasofoxifene prevented lumbar vertebral bone loss in postmenopausal women and was well tolerated.
Maria Gabriela Medina Maldonado
C.I. 16779553
CRF 


High density lipoproteins reduce organ injury and organ dysfunction in a rat model of hemorrhagic shock

High density lipoproteins  reduce  organ injury and organ dysfunction  in a rat model  of hemorrhagic shock

ABSTRACT
 High density lipoproteins (HDLs) inhibit the cytokine-induced expression of endothelial cell adhesion molecules both in vitro and in vivo. We examined  the ability of HDLs to mediate a functional anti-inflammatory effect  by measuring their ability to prevent  neutrophil   adhesion   and  transmigration  in vitro.  Treatment  of  human  endothelial  cell  cultures with physiologic concentrations of HDLs inhibited neu- trophil  binding  by 68  6 5.9% (mean  and  SE,  n56, P<0.05) and neutrophil transmigration by 48.7 6 6.7% (n58, P<0.05). We then examined the effect  of HDLs on  inflammatory infiltration and subsequent  multiple organ dysfunction syndrome (MODS), associated with trauma in a rat model of hemorrhagic shock. Rats given human HDLs  (80  mg apo  A-I/kg,  i.v.)  90  min after hemorrhage (which reduced mean arterial pressure to
50 mmHg) and 1 min before resuscitation showed attenuation of the increases in the serum levels of markers of  MODS normally observed  in this model. Severe disruption of the architecture of tissues and the extensive  cellular  infiltration into  those  tissues  were also largely inhibited  in animals that received  HDLs. Human HDLs attenuate the MODS associated with ischemia  and  reperfusion   injury after  hemorrhagic shock  in  rats.—Cockerill,  G.  W., McDonald,  M.  C., Mota-Filipe, H., Cuzzocrea, S., Miller, N.E., Thiemer- mann, C. High density lipoproteins reduce organ injury and organ dysfunction in a rat model  of hemorrhagic shock.

A common cause of circulatory shock  is severe blood loss associated  with trauma. Despite  improvements in intensive  care  medicine, mortality  from  hemorrhagic shock (HS)  remains high  (1, 2). Thus,  there is a great need  for new approaches to improve  therapy  and  the outcome of patients with HS (2).  In  clinical  practice, HS leads to a delayed vascular decompensation (result- ing in severe hypotension) and, in ;25% of patients, in the  dysfunction or  failure  of several organs  including lung, kidney, gut, liver, and brain (3). There is evidence

that  both  ischemia  (due to reduced blood  and  oxygen supply  during hemorrhage) and  reperfusion (during resuscitation) play an important role in the pathophys- iology  of  the   multiple  organ   dysfunction syndrome (MODS) in HS (4).
In  both  experimental and  clinical  studies,  local  or generalized  ischemia   (followed   by  reperfusion)   re- sulted in increased vascular permeability leading  to protein leakage, formation of noncardiogenic interstitial edema,   and   the   accumulation  of  neutrophils  in  all organs  (5– 8).  The  infiltration of neutrophils into  tis- sues  is determined largely  by interplay  between  cyto- kines,  chemokines, and  adhesion molecules (9).  Sev- eral  lines  of evidence  suggest  that  adhesion blockade may  be  a  useful  therapeutic approach (10,  11).  Al- though the  precise  factors  leading  to MODS have not been  identified (12),  the  rapid  increase   of  cytokines and  adhesion  molecules very early  after  trauma and hemorrhage and  the  rapid  decrease in interleukin  10 (IL-10)  in patients who develop  MODS (13)  suggest a loss of anti-inflammatory potency.
Plasma high density lipoproteins (HDLs) are a family of  mostly  spheroidal  particles   of  density  1.063–1.21 g/ml. As they are smaller than  other lipoproteins, they penetrate between  the  endothelial cells more  readily, producing relatively high concentrations in tissue fluids (14).   The  major  apolipoprotein (apo)  of  almost  all plasma   HDLs  is  apo  A-I, which  in  association   with phospholipids and  cholesterol encloses  a core  of cho- lesteryl esters.  Nascent  (i.e.,  newly synthesized) HDLs secreted by liver and  intestine contain no  cholesteryl esters,  and   are   discoidal.   A  negative   association   of plasma HDL concentration with coronary artery disease has been  documented from epidemiologic studies (15–17).  Experiments in  animals  have  demonstrated that HDLs have direct  anti-atherogenic activity (18 –21).

We have  shown  that  HDLs are  able  to  inhibit  cyto- kine-induced  expression  of  adhesion molecules and that   their   anti-inflammatory properties  are  also  ob- served in animal models (22–24). In this study, we investigated  the hypothesis  that systemic administration of HDLs will exert  beneficial effects in animal  models of  HS.  We have  examined the  effects  of  native  high density  lipoproteins (nHDLs) and  reconstituted high density  lipoproteins  (recHDLs) on  the  organ   injury and  failure  caused  by severe  hemorrhage and  resusci- tation   in  rats,  particularly the  effects  of  nHDLs  and recHDLs  on  renal   dysfunction and  liver,  pancreatic, intestinal, and  lung  injury associated  with HS. To gain better insight  into  the  mechanism of  the  beneficial effects of HDLs observed  in this model,  we also inves- tigated  their  effects on 1) adhesion and  transmigration of polymorphonuclear leukocytes  (PMNs)  and  2) cyto- kine-induced synthesis of IL-8 in human umbilical  vein endothelial cells  (HUVECs)  in  vitro  and  the  rat  IL8 homologue   macrophage   inflammatory   protein    2 (MIP-2) in rats in vivo. We also investigated  the  effects of HDLs on the expression of ICAM-1 and P-selectin in the  kidney and  intestine of rats subjected to shock.
Maria Gabriela Medina Medina
C.I. 16779553
CRF

Preparation of poly (phthalazinone ether sulfone ketone) asymmetric ultrafiltration membrane: II. The gelation process

Preparation of poly (phthalazinone ether sulfone ketone) asymmetric ultrafiltration membrane: II. The gelation process
ABSTRACT
Formation kinetics of the poly (phthalazinone ether sulfone ketone) (PPESK) asymmetric membrane via wet phase-inversion process has been studied experimentally. The membrane morphology has been observed using an online optical microscope - CCD camera experimental system. The precipitation front movement, X, has been measured. Three different linear correlations between the value of X2 and the gelation time, t, have been identified. This observation is different from a commonly accepted conclusion which assumed a single linear correlation between X2 and t for the whole gelation process. Compared to the morphology evolution of the membrane, it is realized that these three correlations correspond to the three consecutive gelation steps: formation of the top layer, formation of the transition layer and formation of the support layer. The effect of two additives, PEG1000 and Tween80, on the formation kinetics as well as the membrane flux has also been studied. The results present here may provide better understanding of the asymmetric membrane formation process.
KEYWORDS : Poly (phthalazinone ether sulfone ketone); Gelation kinetics; Additive; Phase-inversion; Asymmetric membrane
 Introduction
Since the initial development by Loeb and Sourirajan [1], asymmetric membranes have been widely used in numerous applications, such as in food and pharmaceutical processing, chemical separation, waste water handling, drug delivery, artificial organs, and so on. Although many polymer materials have been synthesized and used in asymmetric membrane preparation, there still is a large need to develop new polymeric materials with high temperature resistance and chemical stability. As we shown in our previous paper, poly (phthalazinone ether sulfone ketone) (PPESK) is a novel developed copolymer with a very high glass transition temperature being of around 280 ˚C [2]. Figure 1 shows the chemical structure of this copolymer. It contains different component ratios of bis(4-fluorodiphenyl) ketone and bis(4-chlorodiphenyl) sulfone with respect to a certain amount of 4-(4-hydroxyphenyl)-2,3-phthalazin-1-one. This polymeric material shows an excellent tolerance to commonly used acids, bases and oxidants. By introducing other groups on to its polymer chain, the hydrophilicity and charging characteristics of this polymer can be altered. Several attempts have been conducted to use this novel polymer in membrane applications, including the gas separation membrane, electron transport membrane, ultrafiltration membrane and nanofiltration membrane[3-9]. However up to now, details on the membrane formation process with this copolymer have not been reported yet. Better understanding of the membrane formation process can provide insight into the relationship between the membrane material, the membrane formation condition, and the membrane performance.
Maria Gabriela Medina Maldonado
C.I. 16779553
CRF

BENEFITS OF A CHELATING STAGE PRIOR

BENEFITS OF A CHELATING STAGE PRIOR
TO PEROXIDE BLEACHING
ABSTRACT
         The pulping industry has been phasing out  chlorine as a bleaching agent and nowadays only a minor part of the production of bleached paper pulp involves the use of chlorine gas. This development has been driven by environmental concerns, because of the formation and emission of  chlorinated organic substances that follows the use of chlorine gas in pulp bleaching. The chlorine gas has, to a large extent, been replaced by chlorine dioxide, which generates much lower amounts chlorinated organics than chlorine gas.  There are, however, even more environmentally benign bleaching chemicals available, such as hydrogen peroxide. Hydrogen peroxide is nowadays becoming a commonly used bleaching agent in chemical pulp mills. The bleaching efficiency of hydrogen peroxide is, however, dependent on the design of the bleaching sequence in which the peroxide stage is included. In this paper, the importance of a proper chelating stage (treatment with EDTA) prior to peroxide bleaching of eucalyptus kraft pulp is high-lighted. The results show that a high brightness at a high viscosity can be achieved at a relatively low consumption of peroxide, if the bleaching is preceded by a chelation stage. These results are in agreement with results found in the literature. Some results regarding the impact of the alkali addition in the peroxide stage are also included.   
INTRODUCTION
     The world's paper consumption has increased by 50 % during the last decade. Consequently, the consumption of bleaching agents for pulp bleaching has increased as well. Pulp and paper production has long been recognized as a significant source of pollution. Especially the use of chlorine based bleaching agents has had a negative impact on the environment. When gaseous Cl2 is used in bleaching, considerable amounts of organ chlorine compounds are formed (Juuti, S., 1996). Gaseous Cl2 has largely been replaced by chlorine dioxide (ClO2) in bleaching in recent years, to reduce the formation of lipophilic organ chlorine and volatile molecular chlorinated compounds. However, the use of ClO2 in bleaching does not totally eliminate the formation of some harmful material and from an environmental point of view, it could be advantageous if the use of chlorine dioxide was decreased. (Nakatama, 2004). Society awareness of the environment has urged the use of environmentally friendly compounds in bleaching processes to substitute bleaching sequences including chlorine based chemicals. Such a bleaching concept is usually referred to as totally chlorine free (TCF) bleaching. Hydrogen peroxide (H2O2) is one of the key chemicals in TCF bleaching (Van Lierop, 1994). The goals when using this chemical are to maximize delignification, brightness and selectivity towards lignin, and to minimize the consumption of hydrogen peroxide
PEROXIDE BLEACHING  
     Oxygen delignification was industrially established in the 1970's as a method for lowering the kappa number of kraft pulp prior to the bleach plant. Hydrogen peroxide, which is another oxygen based bleaching agent, was introduced at a large scale in bleach plants in the 1990's. There are many similarities between oxygen delignification and hydrogen peroxide bleaching. The pulp is treated under alkaline conditions and molecular oxygen and peroxides are present in both cases, although in different proportions. Hydrogen peroxide is formed in oxygen delignification and oxygen is generated through the decomposition of hydrogen peroxide during peroxide bleaching (Gierer and Imsgard 1977). Compared with oxygen delignification, peroxide delignification appears to provide better color removal, because of the specific action of hydrogen peroxide on chromophores (Dence and Reeve, 1996).
     There are, however, some difficulties regarding the stability of the peroxide that have to be considered when hydrogen peroxide is to be used in bleaching.   Hydrogen peroxide is very stable under acidic conditions, but under alkaline conditions, it has a propensity for decomposition. The decomposition of hydrogen peroxide is also accelerated by temperature. The active bleaching species in alkaline hydrogen peroxide systems is the perhydroxyl anion, HOO-, which is formed under alkaline conditions (Dence and Reeve, 1996). The dissociation of hydrogen peroxide (the formation of the perhydroxyl anion) is shown in equation (1).
HOOH + HO-           HOO- +H2O          (1)
This anion is a strong nucleophile and is primarily responsible for the bleaching effect of alkaline hydrogen peroxide. There are two competing reactions in hydrogen peroxide bleaching: the first leads to delignification and a brightness increase while a second parallel reaction leads to the decomposition of hydrogen peroxide into water and oxygen.  The decomposition is catalyzed by transition metal ions and  is usually claimed to involve the formation of reactive intermediates (HO•, and O2-•). The overall reaction can be written as in equation 2.
H2O2 + HO2-          H2O + O2 + HO-            (2)
   
     Hydrogen peroxide bleaching is usually performed at pH 10-11.5. Under these conditions transition metals can hardly exist as free ions. Collodete et al, (1988) have studied the solubility of Fe3+, Cu2+ and Mn2+ in the pH range 9.8 to 11.8. After aging at 500C for 120 minutes, the solution
were subjected to ultra filtration (cut off >1000 MW) and an analysis of the filtrates showed that that no amounts of iron, copper or manganese above the detection limit (10 ppb) could be found in the solution after filtration. The rate of peroxide decomposition was shown to be considerably lower in the filtrates than in the original solutions, which implies that the decomposition is surface-catalyzed by colloidal transition metal- oxides/hydroxides.     In bleaching, the decomposition is undesirable for two reasons: consumption of peroxide in non-bleaching reactions and formation of hydroxyl radicals (HO•), which oxidize and degrade cellulose. In a study of hydroxyl radical formation by hydrogen peroxide under bleaching conditions, the free hydroxyl radicals are formed by processes catalyzed by mononuclear transition metal ion complexes. Colloidal particles of transition metal oxides/hydroxides were proposed to decompose hydrogen peroxide directly into oxygen and water.
Maria Gabriela Medina
C.I. 16779553
CRF

Toxic toiletries - Facing up to the truth

The glossy images we're fed by the media hide a dangerous secret: most
of our toiletries, even the "natural variety", are made up of the same
harsh, toxic chemicals used for industry. What could be more healthy
than a refreshing body wash, a nourishing shampoo, a minty fresh
toothpaste and a moisturising facial cream? Commercials, magazine
advertisements and billboards bombard us with the message that soaping
and scrubbing, exfoliating and moisturising are only beneficial to our
health. Yet the glossy images of well scrubbed individuals hide a
dangerous secret: too many of the toiletries and cosmetics we use are
carcinogenic cocktails of hazardous waste. Most of the chemicals which
go into our toiletries are no different from the harsh, toxic
chemicals used in industry. Far from enhancing health, they pose a
daily threat to it. For example, propylene glycol (PG) is a wetting
agent and solvent used in make up, hair care products, deodorants and
aftershave. It's also the main ingredients.
HECHO POR: WILLSON A MENDOZA C
C.I:16.959.604
FUENTE:http://www.wddty.com/toxic-toiletries.html

Nanoparticles and its applications in field of pharmacy

Nanoscience is the study of phenomenon and manipulation of materials
at atomic, molecular and macromolecular scales, where properties
differ significantly from those at a larger scale.
Nanoelement can be defined as:
•A composite of other nanoelements, a (specially designed) molecule or
a sub-molecule.
•A nanoparticle in the usual sense, a composite of several different
nanoparticles.
•An (intellectually bound) small region of a material, an elementary particle.
•Any special construct on an atomic or subatomic level, any other
micro-objects.
Nanotechnology can best be considered as a 'catch-all' description of
activities at the level of atoms and molecules that have applications
in the real world. Nanotechnology involves the use of man-made
materials so small; they are measured on the scale of a nanometer. The
word "Nano" is derived from the greek word for Dwarf. It means "a
billionth." A nanometer is a billionth of a meter, that is, about
1/80,000 of the diameter of a human hair, or 10 times the diameter of
a hydrogen atom.
2. Applications of Nanotechnology (1)
Applications of nanotechnology in the different field can be
summarized as follows:
Nanomedicnes: nanodrugs, medical devices, tissue engineering, etc.
Chemicals and cosmetics: nanoscale chemicals and compounds, paints,
coating, etc.
Materials: nanoparticles, carbon nanotubes, biopolymers, paints, coating
Food science: processing, nutracetical food, nanocapsules
Envirnoment and energy: water and air purification filters, fuel
cells, photovoltics
Military and security: bio-sensers, wepons, sensory enhancement
Electronics: semiconductor chips, memory storage, photonics, optoelectronics
Scientific tools: atomic force, microscopes and scanning tunneling microscope
Agriculture: pesticides, food production
3.Nanoparticles
Nanoparticles are often defined as particles of less than 100nm in
diameter. Nanoparticles can be also defined as particles less than
100nm in diameter that exhibit new or enhanced size-dependent
properties compared with larger particles of the same material.
Nanoparticles exist widely in the natural world: for example as the
products of photochemical and volcanic activity, and created by plants
and algae. They have also been created for thousands of years as
products of combustion and food cooking, and more recently from
vehicle exhausts.
3.1Classification of Nanoparticles (2)
3.1.1. In one dimensions (Thin surface coatings)
One-dimensional systems, such as thin films or manufactured surfaces.
3.1.2. In Two Dimensions
a) Carbon Nanotubes
Carbon nanotubes are a new form of carbon molecule. Wound in a
hexagonal network of carbon atoms, these hollow cylinders can have
diameters as small as 0.7 nm and reach several millimeters in length
(3). Each end can be opened or closed by a fullerene half-molecule.
These nanotubes can have a single layer (like a straw) or several
layers (like a poster rolled in a tube) of coaxial cylinders of
increasing diameters in a common axis (4).
Figure no. 1: Schematic representation of monolayer or multiplayer
carbon nanotube
3.1.3. In Three Dimensions
a) Fullerenes (Carbon 60)
Fullerenes are spherical cages containing from 28 to more than 100
carbon atoms (see schematic representation opposite Fullerenes are a
class of materials displaying unique physical properties. They can be
subjected to extreme pressures and regain their original shape when
the pressure is released. These molecules do not combine with each
other, thus giving them major potential for application as lubricants.
b) Dendrimers
Dendrimers represent a new class of controlled-structure polymers with
nanometric dimensions. They are considered to be basic elements for
large-scale synthesis of organic and inorganic nanostructures with
dimensions of 1 to 100 nm, displaying unique properties. Compatible
with organic structures such as DNA, they can also be fabricated to
interact with metallic nanocrystals and nanotubes or to possess an
encapsulation capacity (5).
c) Quantum Dots
It represents a special form of spherical nanocrystals from 1 to 10 nm
in diameter. They have been developed in the form of semiconductors,
insulators, metals, magnetic materials or metallic oxides.
4. Advantages of Nanoparticles
•Increased bioavailability
•Dose proportionality
•Decreased toxicity
•Smaller dosage form (i.e., smaller tablet)
•Stable dosage forms of drugs which are either unstable or have
unacceptably low bioavailability in non-nanoparticulate dosage forms.
•Increased active agent surface area results in a faster dissolution
of the active agent in an aqueous environment, such as the human body.
Faster dissolution generally equates with greater bioavailability,
smaller drug doses, less toxicity.
•Reduction in fed/fasted variability (6).
5. Nanoparticle production processes
Nanoparticles can be produced by either Dispersion-based processes
(which involves breaking larger micrometer-sized particles into
nanoparticles) or precipitation-based processes.
5.1 Dispersion-based processes
a) Wet milling
Wet milling is an attrition-based process in which the drug is
dispersed first in an aqueous-based surfactant solution. The resulting
suspension is subjected to wet milling using a pearl mill in the
presence of milling media (7,8).
b) High-pressure Homogenization
High-pressure homogenization is based on the principle of cavitation
(i.e., the formation, growth, and implosive collapse of vapor bubbles
in a liquid (9-11). In this process, a drug presuspension (containing
drug in the micrometer range) is prepared by subjecting the drug to
air jet milling in the presence of an aqueous surfactant solution.
The main advantage of high-pressure homogenization is that it is
suitable for both large- and laboratory-scale production because
high-pressure homogenizers are available in various sizes. In
addition, homogenization creates negligible nanoparticle
contamination, which is one of the most important objectives of a
nanoparticle production process.
A limitation of this process is that the pressure used is so high that
in some cases, the crystal structure changed.
c) Emulsification Technology
Emulsification also can be used to prepare nanoparticle suspensions.
In this method, the drug solution in an organic solvent is dispersed
in the aqueous phase containing surfactant. This step is followed by
the evaporation of organic solvent under reduced pressure, which
results in the precipitation of drug particles to form a nanoparticle
suspension which is stabilized by the added surfactant. The use of
microemulsion as templates for producing drug nanosuspensions (12).
5.2 Precipitation-based processes
a) Spray freezing into liquid (SFL)
In this process, developed at the University of Texas at Austin
(Austin, TX) and commercialized by Dow Chemical Company (Midland, MI),
an aqueous, organic, or aqueous–organic cosolvent solution;
aqueous–organic emulsion; or drug suspension is atomized into a
cryogenic liquid such as liquid nitrogen to produce frozen
nanoparticles which are subsequently lyophilized to obtain free
flowing powder (13-15).
b) Evaporative precipitation into aqueous solution (EPAS).
The EPAS process also was developed by the University of Texas at
Austin and commercialized by Dow Chemical Company. In this process,
the drug solution in a low boiling liquid organic solvent is heated
under pressure to a temperature above the solvent's normal boiling
point and then atomized into a heated aqueous solution containing
stabilizing surfactant (16).
c) Rapid expansion from a liquefied-gas solution (RESS)
In an RESS process, a solution or dispersion of phospholipids or other
suitable surfactant in the supercritical fluid is formed. Then, rapid
nucleation of drug is induced in the supercritical fluid containing
surfactant. This process allows rapid, intimate contact of the drug
dissolved in supercritical fluid and the surfactant which inhibits the
growth of the newly formed particles (17,18).
d) Precipitation with a Compressed Fluid Antisolvent (PCA)
In the PCA process (patented by RTP Pharmaceuticals and licensed to
SkyePharma Plc [London, UK]), supercritical carbon dioxide is mixed
with organic solvents containing drug compounds. The solvent expands
into supercritical carbon dioxide, thus increasing the concentration
of the solute in the solution, making it supersaturated, and causing
the solute to precipitate or crystallize out of solution (19,20).
6. Characterization of Nanoparticles
Table no. 1: Different parameters & characterization methods for nanoparticles
Parameters
Characterization methods
References
Particle size & size distribution
photon correlation spectroscopy, Scanning electron microscopy (SEM),
Transmission electron microscopy (TEM), Atomic force microscopy (AFM),
Mercury porositometry, Laser defractrometry
21,22
Charge determination
Laser droplet anemometry, Zeta potentiometer
23
Surface hydrophobicity
Water contact angle measurements, rose bangle (dye) binding,
hydrophobic interaction chromatography, X-ray photoelectron
spectroscopy
24,25
Chemical analysis of surface
Static secondary ion mass spectrometry, sorptometer
26
Carrier drug interaction
Differential scanning calorimetry
27
Nanoparticle dispersion stability
Critical flocculation temperature(CFT)
28
Release profile
In-vitro release characteristic under physiologic & sink condition
29-31
Drug stability
Bioassay of drug extracted from nanoparticle, chemical analysis of drug
32

7. Health implications of Nanoparticles
It is important to differentiate between 'free' and 'fixed'
nanoparticles. The former pose a more direct health threat because
they are more difficult to contain, easily become airborne and can be
inhaled (33).
Nanoparticles can enter the human body in several ways; (i) via the
lungs where a rapid translocation through the blood stream to vital
organs is possible, including crossing the BBB, and absorption by (ii)
the intestinal tract, or (iii) the skin (34).
a) Skin
Particles 500–1000 nm in size, theoretically beyond the realms of
nanotechnology, can penetrate and reach the lower levels of human
skin, 128 and smaller particles are likely to move deeper into the
skin
TiO2 particles are often used in sunscreens to absorb UV light and
therefore to protect skin against sunburn or genetic damage. It has
been reported by Lademann et al in that micrometer-sized particles of
TiO2 get through the human stratum corneum and even into some hair
follicles – including their deeper parts (35).
b) Intestinal tract
The epithelium of the small and large intestines is in close contact
with ingested material so that nutrients can be utilized. A mixture of
disaccharides, peptides, fatty acids, and monoglycerides generated by
digestion in small intestine are further transformed and taken in the
villi.
The kinetics of particle translocation in the intestine depends on
diffusion and accessibility through mucus, initial contact with
enterocyte or M-cell, cellular trafficking, and post-translocation
events.
Charged particles, such as carboxylated polystyrene nanoparticles or
those composed of positively charged polymers exhibit poor oral
bioavailability through electrostatic repulsion and mucus entrapment.
The smaller the particle diameter the faster they could permutate the
mucus to reach the colonic enterocytes; 14 nm diameter permeated
within 2 min, 415 nm particles took 30 min, while 1000-nm particles
were unable to translocate this barrier (36,37).
c) Lung
Based on three particle-types titanium dioxide (TiO2), carbon black,
and diesel particles, hazard studies in rats demonstrate that
ultrafine or nanoparticles administered to the lung produce more
potent adverse effects in the form of inflammation and subsequent
tumors compared with larger sized particles of identical chemical
composition at equivalent mass concentrations or
intratracheally-instilled doses. Surface properties, such as surface
chemistry and area, may play a significant role in nanoparticle
particle toxicity (38).
8. Clinical aspects
Several nanoparticle technologies are currently in clinical trials and
a few have progressed to clinical use. NanoCrystal™ technology from
Elan Pharmaceuticals International, Ltd. is one breakthrough
technology that is being licensed to pharma­ceutical companies for
specialized drug delivery systems. Cur­rently, there are some FDA
approved drug products employing this technology. Rapamune
(Wyeth-Ayerst Laboratories), an oral tablet dosage form containing
nanoparticles of the immu-nosuppressant drug Rapamycin, was approved
by the U.S. FDA during the year 2000. Some of the pharmaceutical
products based on nanotechnologies are summarized in Table 2.
Table no. 2: Examples of pharmaceuticals products based on
nanotechnologies
Brand name
Description
Advantages
References
Emend
(Merck & Co. Inc.)
Nanocrystal aprepiant (antiemetic) in a capsule
Enhanced dissolution rate & bioavailability
39
Rapamune
(Wyeth-Ayerst Laboratories)
Nanocrystallied Rapamycin (immunosuppressant) in a tablet
Enhanced dissolution rate& bioavailability
40
Abraxane
(American Biosciences, Inc.)
Paclitaxel (anticancer drug) bound albumin particles
Enhance dose tolerance and hence effect elimination of solvent
associated toxicity
41
Rexin-G
(Epeius Biotechnology corporation)
A retroviral vector carrying cytotoxic gene
Effective in pancreatic cancer treatment
42
Olay Moisturizers
(Proctor and Gamble)
Contains added transparent, better protecting nano zinc oxide particles
Offer better UV protection
43
Trimetaspheres (Luna Nanoworks)
MRI images
enhanced MRI images at least 25 times better than current contrast agents
44
SILCRYST
(Nucryst Pharmaceuticals)
Enhance the solubility and sustained release of silver nanocrystals
Better protection from infection

45
Nano-balls
(Univ. of South Florida)
Nano-sized plastic spheres with drugs (active against
methicillin-resistant staph (MRSA) bacteria) chemically bonded to
their surface that allow the drug to be dissolved in water.
More powerful antibiotics

46
HECHO POR: WILLSON A MENDOZA C
C.I:16.959.604
CRF
FUENTE:http://www.pharmainfo.net/reviews/nanoparticles-and-its-applications-field-pharmacy