viernes, 28 de diciembre de 2012

Construir Quadcopter Autónomo: Proyecto Galatea, Fase 2 acabada


Bien después de 2 años investigando en el master de robótica y automatizacion se acabo lo que se daba ^^.
El master que fue impartido en la Carlos 3 de Madrid me aporto poquito o nada a los conocimientos que ya tenia (donde aprendí mas es picandome con los compañeros de clase, que ahí es donde había nivel).
Dicho esto NO RECOMIENDO, bajo ningún concepto este master impartido en esta universidad (he de decir que entre en este master porque amigos mios me habían informado que esta universidad era bastante buena, además de tener bastante prestigio, por eso me decante por esta opción).

Bueno, criticas a parte, vamos al meollo del asunto.

El pdf que dejo a continuación es un desglose explicando paso a paso la evolucion (tanto la contruccion del quadcopter, como el control de vuelo).
El quadcopter no esta acabado, ya que solo es capaz de mantenerse en equilibrio y por desgracia no es capaz de volar. Pero he de decir que pienso continuar el proyecto sin tener por medio profesores que me hagan perder el tiempo con sus cábalas.

 Espero que os guste e iré añadiendo todas las nuevas mejoras e iré poniendo también el pdf desglosado en futuras entradas para que sea mas sencillo de entender.

 Link: Como contruir un quadcopter autónomo
Mis Robots Noticias Proyecto Galatea Tutoriales

jueves, 20 de diciembre de 2012

Cientificos consiguen que una mujer tetraplejica mueva un brazo robótico a traves de impulsos neuronales




Una mujer, de 52 años y tetrapléjica, ha conseguido controlar y manejar una mano robótica recientemente desarrollada sólo con sus pensamientos, según ha revelado científicos estadounidenses en la revista especializada 'The Lancet'.

Los especialistas explicaron que para el avance fue decisiva una nueva forma de transmisión de los impulsos nerviosos que toma como referencia el control natural de los músculos.

Jan de 52 años había perdido la capacidad para mover sus brazos y piernas hacía más de 10 años debido a una enfermedad degenerativa, denominada degeneración espinocerebral, que le originó un daño en su médula espinal similar al que produce una fractura de la columna y médula por un accidente de tráfico. El equipo de la Universidad de Pittsburgh, Pennsylvania (EEUU), dirigido por Andrew Schwartz, trató a la paciente antes de que se fuera totalmente tetrapléjica, aunque al poco tiempo de colocarle los electrodos ya no podía mover sus brazos.

Los científicos le implantaron dos microelectrodos en la corteza motora del cerebro. Estos fueron conectados a un brazo robótico con una mano y dedos artificiales.

Dos días después de la operación la mujer ya podía mover el brazo, de izquierda a derecha, arriba y abajo, sólo a través de sus pensamientos, indican los expertos en su estudio. Después de tres meses de entrenamiento (13 semanas en contreto) pudo realizar determinadas acciones para tomar cosas y sus movimientos se volvieron más rápidos y eficientes, según revelaron los científicos, que aseguraron que no sufrió ningún efecto secundario.

La innovadora técnica hace que el uso del brazo robótico sea más intuitivo para los pacientes, ya que en lugar de tener que pensar dónde mover el brazo, el paciente simplemente tiene que concentrarse en la meta, como se haría al intentar encestar una pelota.

Movimientos más finos
Aunque varios grupos en el mundo están desarrollando prototipos similares, ninguno había logrado estos impresionantes resultados. A las 13 semanas, Jan podía mover objetos en una mesa, incluyendo conos, bloques y pelotas pequeñas, cogiéndolos y cambiándolos de sitio.

"Nos quedamos impresionados por lo rápido que pudo adquirir su habilidad. Era totalmente inesperado", ha declarado Andrew Schwartz, profesor de neurobiología en la Universidad de Pittsburgh y principal investigador de este proyecto."Al final de un buen día, cuando ella estaba haciendo estos bellos movimientos, estaba muy emocionada".

Para conectar a la mujer hasta el brazo, los médicos realizaron una operación de cuatro horas para implantar dos rejillas de electrodos diminutos, de 4 milímetros a cada lado, en el cerebro de Jan. Cada cuadrícula tiene 96 electrodos pequeños que sobresalen 1,5 mm. Los electrodos fueron empujados justo debajo de la superficie del cerebro, cerca de las neuronas que controlan la mano y el movimiento del brazo en la corteza motora.

Antes de que Jan pudiera usar el brazo, los médicos tuvieron que registrar su actividad cerebral imaginando diversos movimientos del brazo. Para ello, le pidieron que mirara el brazo robótico, y consiguió que se imaginara moviendo su propio brazo de la misma manera. El brazo robótico fue programado para ayudar a los movimientos de Jan, haciendo caso omiso de pequeños errores en los movimientos.

En el futuro
Existen varios retos todavía por solventar. Uno es que la mano robótica pueda enviar impulsos sensoriales a las personas, para que estas puedan interactuar con los objetos en función de su textura y temperatura.

Un segundo objetivo es que se desarrollen electrodos más finos, con un espesor de unas cinco milésimas de milímetro, para evitar problemas como el que Jan ha desarrollado después de la publicación del estudio. Se trata de un tejido cicatricial que se forma alrededor de los electrodos y que degrada las señales que el cerebro envía al ordenador. Con unos electrodos más pequeños, quizás el organismo no desencadene ningún proceso cicatricial.

Otro foco importante de trabajo futuro es desarrollar un sistema inalámbrico, de modo que el paciente no tiene que estar físicamente conectado al ordenador que controla el brazo robótico.

Referencia: el mundo

miércoles, 12 de diciembre de 2012

Concurso Internacional de Robótica AESSBOT'12

Del 6 al 8 de diciembre, en el Museo Marítimo de Barcelona, se realiza el Concurso Internacional de Robótica AESSBOT'12 organizado por la AESS estudiantes de la Universitat Politècnica de Catalunya.




Una cincuentena de robots competirán en las categorías de sumo, minisumo, rastreadores, velocistas, AESSChallenge 24 y AESSBots en la XVI edición del Concurso Internacional de Robótica AESSBot'12, que tendrá lugar del 6 al 8 de diciembre, en el Museo Marítimo de Barcelona, en el marco de la Barcelona Developers Conference.

Del 6 al 8 de diciembre, los estudiantes de la Aerospace & Electronic Systems Society (AEES estudiantes) de la Universitat Politècnica de Catalunya BarcelonaTech (UPC) organizan la XVI edición del Concurso Internacional de Robótica, AESSBot'12, que tendrá lugar en el Museo Marítimo de Barcelona, en el marco de la de Barcelona Developers Conference. El concurso de este año, en el cual competirán una cincuentena de robots de toda España y también alguno iberoamericano, introduce como novedades la nueva categoría Challenge 24 h, que consistirá en diseñar un robot en un solo día, así como la realización de workshops relacionados con la robótica.

Unos 31 equipos, formados mayoritariamente por estudiantes universitarios procedentes de Cataluña, Madrid, Asturias, Ibiza y México, competirán con sus robots: más de 15 robots lo harán en la categoría de velocistas, al menos 10 en la de rastreadores y en la de sumo y finalmente un mínimo de 13 en minisumo. En la categoría de AESSChallenge 24 h, el máximo de equipos que pueden participar son 7, y se ha conseguido cubrir todas las plazas. También estará la categoría AESSBots, en la cual se enfrentarán los robots de minisumo del curso de iniciación a la robótica que organiza AESS Estudiantes.

Diez de los equipos concursantes son de la UPC, que competirán en diferentes categorías, sobre todo en la de AESSChallenge 24 h. El acontecimiento se iniciará el día 6, a las 16 horas, con el taller de Arduino, y seguirá con la categoría AESSChallenge 24 h que empezará a las 18 h. Al finalizar el concurso, se otorgarán premios a los ganadores clasificados en cada categoría. Durante los días que dure el concurso habrá también estudiantes de la UPC programando el robot humanoide REEM, para que pueda resolver los diferentes retos que le serán propuestos.

Las principales entidades que han dado apoyo al concurso son la Escuela Técnica Superior de Ingeniería de Telecomunicación de Barcelona de la UPC —Telecom Bcn—, Elmeq motor y Ebv Elektronik, que tendrán un stand en el espacio donde se desarrollará el concurso. También colaboran las empresas Silver, Insegraf, Tejas Instrumentos, Microchip y Ro-botica.


Referencia: universia

Robot económico por 250$




Joseph Schlesinger, un ingeniero que vive en Boston, Estados Unidos, dice que los juguetes robóticos son muy caros a causa de su diseño extravagante, sus componentes caros y el pobre entendimiento que los diseñadores tienen del gusto de los consumidores. Este año, él comenzó a fabricar un robot que vende a un precio a la mano del consumidor: US$ 250.
Su creación, llamada Hexy, es un robot de seis piernas que responde a los humanos con gestos programables. Schlesinger dijo que fue capaz de bajar los costos de producción usando un software libre y moldeando muchas partes en Massachusets y no en China.La compañía de Schelsinger se llama ArsBotic, está ubicada en Somerville, Massachusetsy ya tiene mil órdenes de compra en lista de espera. Según su fundador, la meta es convertirse en "la Ikea de los robots", en referencia a la famosa empresa minorista de muebles.
"Creo que el mercado de consumidores de robótica está destinado a explotar", dijo el estudiante del Instituto Politécnico Worcester. "Recién estamos empezando".
Desde 1960 los robots han asumido más importancia en la fabricación industrial, en los procesos de búsqueda y rescate, de detonación remota de explosivos y de investigación académica. Pero para la mayoría de los consumidores, han quedado fuera del rango de precios y practicidad.


Esto está a punto de cambiar, en parte debido a que la producción masiva de teléfonos inteligentes y consolas de juego ha bajado el precio de las partes del robot. Además, la primera generación de aparatos con inteligencia artificial rudimentaria ya comenzó a aparecer con fines domésticos o educacionales.
Los más avanzados, como el robot Curiosity de la NASA que ahora explora Marte, cuestan US$ 2.5 billones. La empresa Willow Garaje vende los robots PR2 con dos brazos y ruedas por US$ 400.000 que son capaces de traerle a su dueño una cerveza de la heladera (ver video). Los modelos más económicos son el Caddy Trek, un robot caddie que sigue al jugador de golf durante 27 hoyos sin requerir recarga. Los jugadores usan un control remoto en su cinto para manejarlo. Ese robot cuesta US$ 1.595. El Polaris 9300 es un limpiador de piscinas que se sumerge, recorre el fondo de la piscina y filtra el sedimento. Es construido por la empresa Zodiac Pool Systems de San Diego y cuesta US$ 1.379. También está el robot jardinero Automower 305, que corta el pasto y tiene sensores que le permiten evitar árboles y obstáculos y no cortar las flores. Se vende en Europa y Asia a un precio de US$ 1.398

Referencia: el pais

Wave Glider PACX, robot barco que viajo 16.000km




El robot autonomo Wave Glider PACX, también conocido como "Papa Mau", nadó desde San Francisco (EE.UU.) hasta Australia, recorriendo una distancia de 16.668 kilómetros. Esto le llevo un año completar el viaje.

Dicho robot es un robot completamente ecologico ya que es alimentado por paneles solares (lo que explica porque tardo un año).

La empresa encargada de diseñar este robot es Liquid Robots, que cuenta con otros 3 robots de similares características.

Nos gusta este tipo de iniciativas que fomentan la union de la robótica con el medio ambiente.





lunes, 10 de diciembre de 2012

Nuevos robots para trabajar en Fukushima





Hace ya más de un año que se produjo el accidente de la central nuclear de Fukushima, y muchas compañías japonesas siguen perfeccionando modelos de robot diseñados para explorar las profundidades de las instalaciones siniestradas y radioactivas sin intervención humana.

Hace apenas dos semanas, Toshiba presentaba un robot de cuatro patas destinado a navegar por los intrincados recovecos llenos de obstáculos de las ruinas de Fukushima. El robot, monitorizado de forma remota por los especialistas de la central, lleva a cuestas un segundo vehículo más pequeño que puede dejar en el suelo para que explore áreas de muy difícil acceso.

Ambos robots pueden ser operados mediante una simple red WiFi y su autonomía es de dos horas en el caso del robot nodriza cuadrúpedo y de una para su pequeño acompañante.




Más recientemente, Mitsubishi ha presentado otro robot destinado a la exploración en áreas difíciles, aunque este es más expeditivo. Sustentado sobre ruedas de oruga, el MHI-Meister pesa 440 kilos (frente a los 65 del de Toshiba) y dispone de dos brazos mecánicos con casi la misma movilidad que un los de un ser humano y capaces de levantar hasta 15 kilos.

Estos apéndices pueden cargar también herramientas con las que cortar obstáculos o tomar muestras en paredes de cemento a una profundidad de hasta siete centímetros. El MHI-Meister tiene también una autonomía de dos horas.

Ambos robots han sido desarrollados a partir de otros diseños, con la colaboración de la Agencia Nuclear japonesa, y se espera que entren en servicio muy pronto uniéndose a otros robots como los DXR-140 de Husqvarna Construction, dos robots de demolición que ya trabajan desde finales de 2011 en las tareas de limpieza de la malograda central.

Referencia: xataka

martes, 4 de diciembre de 2012

CIENCIA » El robot ‘Curiosity’ sigue buscando compuestos orgánicos en Marte




Los científicos del robot Curiosity están muy satisfechos de cómo están funcionando los instrumentos de análisis del laboratorio rodante, pero todavía no tienen descubrimientos científicos sensacionales que anunciar. “No tenemos una detección concluyente de material orgánico marciano, pero seguimos buscando en los diversos entornos del cráter Gale”, ha declarado Paul Mahaffy, investigador principal del aparato SAM, uno de los analizadores químicos avanzados del robot, al comentar los análisis de suelo en que se aprecian niveles de carbono y de cloro que podrían apuntar en esa dirección. John Grotzinger, el jefe científico de la misión, ha pedido paciencia: el Curiosity lleva cuatro meses en Marte y queda todavía mucha misión por delante, prevista para dos años de duración. Varios responsables de este laboratorio rodante han presentado los datos obtenidos en una conferencia de la Unión Americana de Geofísica, que se celebra en San Francisco (EE UU).

Ante un compuesto que pudiera ser orgánico, ha explicado Grotzinger, primero hay que comprobar que no sea de origen terrestre, es decir, debido a contaminación; segundo, hay que descartar que sea de origen cósmico, por ejemplo procedente de meteoritos o cometas; pero aunque fuera realmente marciano se abriría un abanico de posibilidades y no tendría por qué ser necesariamente biótico, es decir, relacionado con la vida. El objetivo principal del Curiosity es determinar si en Marte hay o pudo haber en el pasado condiciones aptas para la vida.

El robot lleva semanas rodando por el cráter Gale del planeta rojo y se ha detenido en algunos puntos para hacer análisis del suelo y las rocas. En un lugar bautizado Rocknest, un sitio relativamente plano con acumulación de polvo y arena arrastrada por el viento, la pequeña excavadora del robot ha tomado cinco muestras a unos centímetros de profundidad y las ha depositado en el equipo de análisis químico que mide los gases generados al calentarlas en un pequeño horno. Es la primera vez que se hace este tipo de experimentos en Marte, ha recalcado Mahaffy. El examen de los gases emitidos por las muestras desvela la composición de vapor de agua, dióxido de carbono, oxígeno y dióxido de azufre.

Gracias a las cámaras especiales del robot, los científicos pueden conocer los detalles del suelo excavado. “Es polvo fino, como harina y más oscuro bajo la superficie”, ha explicado Ken Edgett. “Hemos utilizando prácticamente todo el equipamiento científico en este punto y las sinergias de los instrumentos, así como la riqueza de los datos obtenidos son muy prometedoras de cara al principal objetivo de la misión, el monte Sharp [en el centro del cráter]”, afirma Grotzinger. Y de nuevo, paciencia: el Curiosity está aún a varios kilómetros de distancia del Sharp.

Los responsables de esta misión en Marte han resumido las actividades del robot en medio de gran expectación dados los rumores que circularon hace unos días en internet sobre un posible hallazgo sensacional del Curosity. La NASA misma ya desinfló la semana pasada, con un comunicado, el mar de ciberhabladurías: “Los rumores y especulaciones acerca de hay grandes descubrimientos en esta fase temprana de la misión son incorrectos”.

Referencia: el pais


lunes, 3 de diciembre de 2012

La Politécnica de gijón prepara una especialidad de robótica para atender la demanda industrial


El precedente son los másteres de ingeniería mecatrónica y automatización industrial; ahora la Escuela Politécnica de Ingeniería quiere ampliar su apuesta por el sector de la electrónica con un grado con especialización en robótica, según anunció el subdirector de Estudiantes, Juan Carlos Campo. El centro universitario celebraba ayer la semana europea de la robótica con un programa de 14 charlas desde las diez de la mañana, que reunieron los principales agentes en esta disciplina, entre desarrolladores, centros tecnológicos, alumnado, profesorado y empresas. «Aunque la robótica ya tiene una trayectoria, todavía queda mucho camino por recorrer. Por eso es tan importante el papel de la Universidad, la Administración, las fundaciones o clusters para ayudar a fundar empresas», subrayó el vicerrector de Informática, Víctor Guillermo García.

El sector de la tecnología generó en Asturias en los últimos diez años cinco mil puestos de trabajo y en este momento factura 300 millones de euros, con un crecimiento anual de un cinco por ciento, remarcó García. Sólo en las 70 las empresas reunidas en torno al «cluster» TIC Asturias están vinculados 2.500 profesionales. «Nuestro interés», según la gerente de esta agrupación sectorial, Alicia Veira, es poner en contacto los intereses de las empresas y de los titulados. La estrategia «Europa 2020» incluye entre sus iniciativas más recientes proyectos de robótica social y para el fomento de las «spin off» de base tecnológica participadas en su capital por empresas consolidadas, como se ha hecho en Asturias con Adele Robots a través de la tecnológica Treelogic. Para el director de la Escuela Politécnica de Ingeniería, Hilario López, el fomento de la robótica genera oportunidades en el ámbito de la investigación, de la divulgación y también en el de la empresa. «Si queremos transformar una economía basada en el ladrillo en una economía basada en el conocimiento, la robótica y la informática tienen mucho que decir», apuntó López. Su intención es incorporar a la actual oferta académica una especialización en robótica en los grados de ingeniería.


A las posibilidades que se abren para los futuros titulados en esta disciplina se suma su vertiente educativa. En esa labor están volcados desde hace tiempo en el centro tecnológico Fundación CTIC. Sus responsables han detectado «un déficit de vocaciones científico-técnicas», por ello se han especializado en «incentivar y motivar al alumnado» y también en formar al profesorado para que la robótica entre en las aulas. «Es duro luchar contra la ley orgánica de Educación que elimina la asignatura de Tecnología en Secundaria», especificó Fran Flórez durante la presentación del centro tecnológico en la semana de la robótica de la Escuela Politécnica. La nueva intensificación de los grados ingeniería vendrá a paliar estas deficiencias detectadas por los expertos del campo de las TIC.

Referencia: lne.es

martes, 27 de noviembre de 2012

Robot que analizará la central nuclear de Fukushima




Una de las preguntas que mucha gente lanzaba al aire durante la crisis nuclear a consecuencia del terremoto de Japón de 2011 era… Pero, ¿dónde están los robots? Y es que acostumbrados a ver todo tipo de ingenios mecánicos realizar pequeñas proezas frente a las cámaras y en los laboratorios, se hacía un poco difícil entender que las labores de salvamento, exploración y desescombro de la peligrosa central nuclear Fukushima Daiichi estuvieran siendo realizados por personas y no por robots. Pero, como ya vimos, no apareció ningún robot salvador como en las películas.

Desde luego, los momentos de crisis no eran los mejores para ponerse a hacer experimentos con robots poco probados: había problemas más urgentes como el propio suministro eléctrico básico, que quedó aislado e inutilizado a las pocas horas de la llegada del tsunami. Problemas tan mundanos como enchufes con conectores incompatibles, cables demasiado cortos o mangueras que no encajaban fueron parte del desastre.

Pasado un tiempo, diversas empresas se pusieron en contacto con las autoridades para ofrecer sus servicios especialmente en todo lo relacionado con la exploración de las zonas más peligrosas y contaminadas de la central nuclear: cámaras especiales, pequeños robots de observación e incluso ingenios voladores para tomar fotografías.




Ahora la empresa Toshiba ha anunciado que ha completado el trabajo en un robot articulado diseñado especialmente para la investigación sobre el terreno en zonas de riesgo como la central de Fukushima.

El robot tiene forma de un gran cubo con cuatro extremidades como las de un perro – un tetrápodo en terminología técnica. Pesa 20 kilos y puede moverse «caminando» lentamente, a una velocidad punta de 1 kilómetro por hora. Gracias a esa peculiar configuración de las articulaciones puede desplazarse por terrenos que no sean llanos, entre escombros y pequeños obstáculos. También es capaz de subir escaleras.

El robot se dirige de forma remota y cuenta con un medidor de radiación y una cámara para tomar imágenes y asistir al operador. Una de sus capacidades más interesantes es que puede desplegar una segunda unidad robótica más pequeña, que se mueve con ruedas, para llegar a lugares más recónditos. La «unidad hija» depende de un cable con el que se puede recuperar desde el «robot padre» en cualquier momento.

La idea es enviar este robot a las zonas consideradas de riesgo de la central nuclear de Fukushima Daiichi para que tome fotografías, recoja muestras y analice los niveles de radiación y cualquier otro detalle importante para los ingenieros e investigadores. Zonas prohibidas que no serían seguras para un ser humano, pero en los que un robot no tiene ningún problema para pasar un rato.

Referencia: rtve


jueves, 22 de noviembre de 2012

Ya podeis pedir vuestro Q.bo





Este simpatico robot fue presentado ya hace tiempo pero ahora por fin puedes hacer tu reserva.
Podras elegir entre 2 modalidades:

● Q.bo Basic Platform - este solo sera la plataforma con los sensores y actuadores correspondientes pero sin su hardware de control. Ronda los 755€ y debes montarlo tu (a mi me encantaria).
● Q.bo Evo - este modelo es el mismo pero estara completamente ensamblado y su respectivo hardware de control, listo para poner a programarlo.

Dentro de la version evo, habra 2 modelos, el lite y el pro, las diferencia seran principalmente en mayor potencia de procesador (intel core i.3 para pro y atom para lite) y mejor hardware.

La version pro costara 3.800€ y la lite 2.800€.

Es importante decir que Q.bo no es un juguete, es una potente herramienta tanto educativa como de investigacion.

Para futuras reviews intentare definir mas la plataforma porque tiene buena pinta, ya que cuenta con camaras en stereo, wifi y algunas cosillas mas.

TheCorpora: http://thecorpora.com/newsletter/qbo_newsletter_25_10_2012.html


martes, 13 de noviembre de 2012

Dragonfly: Insecto robótico volador a 99 dólares




Aviones, helicópteros, y cuadricópteros a escala... hemos visto lo que pueden hacer, y tenemos una idea de lo que cuestan. Pero también existen proyectos que buscan imitar a la naturaleza mientras desafían el aire. Dragonfly comenzó como una idea respaldada por la Fuerza Aérea de los Estados Unidos, con el objetivo de desarrollar un insecto robótico volador inspirado en una libélula, que sea preciso y versátil. Dragonfly está prácticamente listo para llegar a las manos del público, y con una contribución de 99 dólares, puedes posar las garras sobre uno de los prototipos básicos.

Las razones para desarrollar esta clase de dispositivos son múltiples. Dar una ventaja a un escuadrón de soldados que necesita ver a la vuelta de una esquina sin arriesgarse, explorar una zona de emergencia cuyo acceso está bloqueado temporalmente, obtener fotografías y vídeos desde ángulos inusuales... seguridad, rescate, arte e investigación pueden cruzar sus caminos y estimular la creación de algunos proyectos impresionantes.

Uno de ellos fue bautizado Dragonfly, nacido en los pasillos del reconocido instituto Georgia Tech. El Dragonfly llegó a su estado actual gracias a una importante inversión de la Fuerza Aérea de los Estados Unidos, que ascendió a un millón de dólares.

Sin embargo, el robot Dragonfly está listo para ser lanzado al público, o mejor dicho, “casi” listo. Una de las características más importantes del Dragonfly es su modularidad. El usuario tiene la posibilidad de adaptarlo de acuerdo a sus necesidades: Según el modelo (cuatro en total), el Dragonfly puede tener WiFi, GPS, acelerómetro, y hasta veinte sensores ambientales integrados. Si por alguna razón eso parece poco, el Dragonfly también cuenta con su propio SDK, lo que habilita un potencial de programación muy importante. Patrullaje autónomo y creación de mapas internos son otras de las funciones que se han mencionado. Y por supuesto, el Dragonfly lo tiene todo para convertirse en una sólida pieza de entretenimiento.

El robot volador fue presentado a través del portal de “crowdfunding” IndieGoGo, y quien desee a uno de los modelos básicos podrá obtenerlo con un “compromiso” de 99 dólares. El modelo Omega de 399 dólares ya está completamente agotado, y la única forma de acceder a él es abonar cien dólares más. Otra opción que también se ha agotado es la de adquirir “colmenas” de unidades Dragonfly a 799 dólares, aunque con 150 dólares más es posible acceder a ocho unidades básicas, u otras combinaciones de los modelos superiores. La presentación en IndieGoGo es una excelente oportunidad para obtener un Dragonfly con descuento, ya que la versión Omega tendrá un precio final de mercado cercano a los 1.500 dólares.
¿Te interesa una libélula robótica? En ese caso, ya sabes dónde buscarla.

Referencia: abc.es

lunes, 5 de noviembre de 2012

Un robot te hace una ensalada y después limpia la mesa




Cocinar es una de esas actividades que, salvo algunas excepciones, nos gustaría poder olvidar. Nos gusta comer, y comemos, pero cocinar es algo que sólo apasiona a unos pocos. Así que cuando descubrimos que hay robots que están siendo diseñados para que podamos ahorrarnos este esfuerzo lo único que podemos hacer es alegrarnos por las ideas que tienen los maestros de la robótica.

En el caso de hoy nos encontramos con el CIROS, un robot que nos ahorrará el esfuerzo que supondrá ir a un restaurante para comernos una ensalada de 10 euros. Este robot tiene la particularidad de estar creado para que se convierta en un experto cocinero. Para ello dispone de movimientos en ambos brazos y manos, permitiéndole cortar vegetales y llevar a cabo el aliño de la ensalada.

Lo mejor es que las habilidades del robot, de uso doméstico en su totalidad, no están limitadas a la preparación de comida.

Si ya hemos saciado nuestro estómago con una de sus ensaladas, podremos sacarle partido de muy distintas maneras. Por ejemplo, es capaz de poner y limpiar la mesa, así como proporcionar servicio de bebidas, lo que viene a ser una experiencia muy cercana a la que podemos tener cuando visitamos un restaurante.

El robot es un poco más alto de cinco pies y ha sido desarrollado por el Centro de Inteligencia Robótica de Corea del Sur, habiéndose convertido en los últimos días en uno de los robots más famosos de la red. Por ahora le hemos visto en acción con un vídeo que podéis ver siguiendo la fuente. Se trata, eso sí, de la tercera versión que se ha producido de la máquina, y es muy posible que todavía reciba otra versión. La primera edición del CIROS, la versión 1.0, se lanzó de forma pública en noviembre del ya lejano año 2005, tiempo desde el cual se ha seguido trabajando en su concepto.

Por supuesto, CIROS todavía tiene sus carencias. A día de hoy aún tenemos que comprar los ingredientes para cocinar y también debemos esperar un tiempo elevado para que nos prepare una ensalada, algo que nosotros haríamos mucho más rápido. Pero la idea es más que interesante, prometedora y llamativa.

Referencia: gizmos
Referencia: http://mashable.com/2012/10/31/salad-robot/

Crean un robot que reproduce los movimientos de una persona en otro lugar


El trabajo forma parte del proyecto europeo Beaming, dirigido por la Universidad de Barcelona (UB) desde la Facultad de Psicología y que lideran los profesores del instituto de investigación Icrea -que forma parte del centro de investigación Idibaps-, Mel Slater y la doctora María Victoria Sánchez-Vives.


Según ha explicado Mel Slater a Efe, el objetivo del proyecto es "transportar personas a otros sitios" y ha destacado que las aplicaciones más interesantes de esta investigación se producen cuando el robot interactúa con otras personas siguiendo los movimientos de alguien que está en otro lugar.


Sánchez-Vives, por su parte, ha indicado que este robot se puede utilizar en situaciones muy diversas, tales como consultas médicas a distancia, envío de periodistas a conflictos bélicos u operar en centrales nucleares.


El proyecto lleva tres años desarrollándose en la Facultad de Psicología de la UB, en Barcelona, y los investigadores esperan que en un futuro próximo se pueda empezar a utilizar para diferentes tipos de aplicaciones prácticas.

Referencia:larazon.com



El primer robot de ajedrez era español y cumple cien años




Hace un siglo no había ordenadores, menos aún una tableta. Tampoco se sabía lo que era un chip o la memoria RAM, pero Leonardo Torres Quevedo, ingeniero de caminos y matemático español, creó la primera máquina capaz de dar jaque mate a cualquier humano que le pusieran enfrente. Antes, solo había logrado una proeza semejante El Turco, un autómata exhibido por Europa y Estados Unidos que llegó a derrotar a Napoleón. La diferencia entre el genio y el tramposo es que la máquina pensante construida por Wolfgang von Kempelen en 1769 escondía en su interior a un enano que jugaba como un gigante. Lo mismo puede decirse del Ajeeb, otro muñeco de barraca de feria, obra de un ebanista estadounidense, en cuyo interior se escondieron maestros de la talla del estadounidense Pillsbury, uno de los mejores de su época. (Este artículo fue publicado en el ABC de papel el pasado jueves, 1 de noviembre).

El Ajedrecista de Torres Quevedo era un ingenio asombroso capaz de realizar sobre el tablero los movimientos «pensados», primero gracias a unos brazos mecánicos y más tarde, en una versión 2.0, por medio de imanes. Es curioso, porque ahora nos llamaría más la atención la primera solución. La máquina no era capaz de jugar una partida completa, pero sabía dar jaque mate con rey y torre contra rey, un final que cualquier aficionado debería aprender a dominar, si bien constituía toda una proeza en manos de un organismo inerte.


El padre de Deep Blue

Por supuesto, aquel embrión de Deep Blue tenía carencias. El mate que ejecutaba de forma infalible no siempre conducía a la muerte del monarca contrario por el camino más corto o elegante. Lo que importa es que puede presumir de ser el primer robot de ajedrez de la historia. Hoy abundan los programas informáticos que por apenas 40 euros son capaces de derrotar a un gran maestro en un ordenador corriente. No hace falta recurrir a gigantescas computadoras como Deep Blue, que hace 15 años acabó con el reinado humano al vencer a Garry Kasparov, entonces campeón del mundo. El monstruo de IBM era capaz de calcular millones de posiciones por segundo. El Ajedrecista de Torres Quevedo, más modesto, se contentaba con elegir un movimiento y trasladarlo al tablero.




Pero la carrera de Leonardo Torres Quevedo va mucho más allá de su máquina de ajedrez. Fue la segunda persona capaz de demostrar el control remoto inalámbrico, solo superado por el célebre inventor austrohúngaro Nikola Tesla. También construyó aeronaves que llegaron a ser utilizadas por franceses y británicos durante la Primera Guerra Mundial -su mayor aportación fue mejorar la seguridad de los dirigibles- y sus diseños de teleféricos, el primero de los cuales instaló en su pueblo natal, fueron empleados en todo el mundo. Probablemente el más famoso sea el «Transbordador aéreo español del Niágara», de casi 600 metros de longitud, que un siglo después sigue siendo una atracción turística en las fronterizas cataratas. Asimismo, fabricó un ingenioso antecedente de los punteros láser.

Sus mayores logros, sin embargo, se produjeron en el campo de la automatización. Sus robots, como El Ajedrecista, llamaron la atención en todo el mundo y fueron admirados en las principales sociedades científicas. Todavía en el siglo XIX, Torres Quevedo construyó varios dispositivos mecánicos que resolvían ecuaciones algebraicas. En 1920 creó su aritmómetro electromecánico, una especie de calculadora unida a una máquina de escribir. El «usuario» -mucho antes de que se empleara el término- introducía la fórmula deseada, como 37x52, por ejemplo, y la máquina escribía directamente la respuesta, 1.924, con tinta de la de verdad, nada electrónica. En la Academia de Ciencias de París presentó el Telekino, un robot que obedecía órdenes a distancia, transmitidas mediante ondas hertzianas.

Referencia: abc

miércoles, 31 de octubre de 2012

Finalizacion del master de robotica

Bien pues "se finí", acabado el master, del cual ya hablare de el proximamente, he decidido continuar las investigaciones del quadcopter yo solito.
Proximamente subire el pdf con el proyecto de fin de master para que le echeis un ojo, eso si aun le falta bastante de control y comentar cosillas que tiene arduino que le complica la existentia a cualquiera. xD
Un saludo!


viernes, 26 de octubre de 2012

La Darpa quiere al mejor robot de rescate

La agencia Darpa de EEUU (Defense Advance Research Projects Agency) quiere premiar con dos millones de dólares al ganador de su concurso de “robots rescatadores“.

Esta nueva edición se desarrollará en dos fases. En la primera los equipos seleccionados crearán un nuevo robot mientras que en la segunda, el robot se lo proporcionará la Darpa (en colaboración con la increíble Boston Dynamics, responsable de algunos de los robots de rescate más sorprendentes de los últimos años) y los equipos deberán crear el software adecuando para un modelo de robot con forma humana.

La misión de esos robots no es un cualquiera. Su enfoque está puesto exclusivamente en operaciones de rescate, y por lo tanto deberán ser capaces de conducir vehículos, trabajar con herramientas, controlar máquinas y poder escalar y pasar por edificios con escombros. En principio esto no deben de hacerlo de forma autónoma, pero es un extra para ganar los dos millones de dólares del concurso.

Referencia: Xataka.com

lunes, 15 de octubre de 2012

Polaris, prototipo de robot extractor lunar



La búsqueda de agua congelada en la luna podría llevarse a cabo algún día de la mano de un robot armado con un taladro de cuatro pies. El primer prototipo ya ha sido presentado con el nombre de Polaris y la previsión es que pueda ser capaz de extraer recursos de la luna, de asteroides o de otros planetas a través de minería espacial.

Polaris es el robot elegido por Astrobotic Technology, uno de los muchos equipos que están compitiendo por el premio Google Lunar X Prize de 30 millones de dólares para llevar robots exploradores a la luna. Pero Astrobotic también quiere construir un negocio duradero más allá de sus esfuerzos de exploración en la luna probando la tecnología para tareas de minería espacial.

“Este explorador es el primer paso adelante para usar recursos fuera de la Tierra con el objetivo de llevar más allá la exploración humana de nuestro sistema solar“, ha dicho John Thornton, presidente de la compañía que presentó el prototipo el pasado día 8 de octubre.

Polaris tiene el tamaño de un carrito de golf y es lo suficientemente alto para sostener el taladro de cuatro pies. Puede mover un pie por segundo en sus ruedas de dos pies de ancho y transportar 70 kilogramos de equipamiento de taladro e instrumentos científicos.
Entre su pesado taladro y las baterías, así como sus ruedas y chasis ligero, el robot pesa 150 kgs. Para alcanzar sus objetivos el Polaris deberá soportar temperaturas extremas tan bajas como 280 grados Fahrenheit (173 Celsius).

La energía para el robot procede de paneles solares diseñados para apuntar hacia el sol, que se asuma por encima del polo sur de la Luna. Si el Polaris llega a la luna podría ser el primero de muchos robots exploradores que se dediquen a operaciones de minería espacial. La NASA ya ha comenzado a hablar sobre usar sus propios instrumentos de prospección de hielo en el explorador, significando uno de los nueve contratos de 3,6 millones de dólares que la agencia espacial estadounidense ha concedido a Astrobotic.
Es posible que el proyecto todavía se encuentre con algunos factores adversos, pero a la vista de la originalidad y destreza de sus responsables, hay muchas esperanzas en que este robot pueda suponer un importante punto de inflexión para la exploración de la luna. De momento sus creadores están trabajando con esfuerzo y las principales agencias les observan con detenimiento para ver cómo avanzan las cosas.

Referencia: gizmos.es

lunes, 8 de octubre de 2012

Robots que ayudaran en el trabajo

Estamos rodeados de dispositivos mecánicos artificiales. No nos damos cuenta pero convivimos con ellos todos los días. Se encuentran en la sanidad, la aviación, la industria, el comercio e incluso en el hogar. Pero, ¿te imaginas tener como compañero de trabajo a un robot con ‘sentido común’? Gracias a la empresa norteamericana Rethink Robotics ahora es posible. Se llama Baxter y a primera vista resulta no solo encantador sino hasta amable.




Gracias a ese equilibrio entre humanoide y máquina, este robot inspira confianza y seguridad. Su cabeza basada en una pantalla de ordenador muestra un dibujo de un rostro que contiene multitud de expresiones según la actividad que realice.

Además, como sus movimientos son muy suaves no ponen en peligro al personal que le rodea.
El único propósito de Baxter es realizar tareas sencillas, repetitivas y difíciles de ejecutar para el hombre pero compartiendo el mismo entorno laboral. A diferencia de otros robots, el trabajador será el que instruya a la máquina en sus quehaceres. Cada tarea nueva a aprender le llevará menos de 30 minutos.

Mediante una serie de ejercicios, le enseñará cómo efectuar los movimientos, qué tipo de objetos tiene que reconocer y recoger y en cuanto tiempo ha de finalizar.

Baxter trabajará de forma inteligente, con “sentido común”. De este modo, los humanos y los androides se implicarían directamente sin necesidad de programación alguna. Ésa fue precisamente la intención de su creador, Rodney Brooks, cuando decidió llevar a cabo este producto tan ambicioso y que ya está a la venta desde el pasado 1 de octubre en Estados Unidos.

No sustituirá al hombre
Con un coste inicial de 22.000$, unos 17.000€, Baxter es uno de los robots para industria más asequibles que podemos encontrar en el mercado. “Se diseñó específicamente para pequeñas y medianas empresas que nunca fueron capaces de tener robots antes”, especifica la compañía.
Al contrario de lo que se pueda pensar, Rethink Robotics no pretende que los negocios sustituyan la mano de obra humana por una robótica. El objetivo no es despedir sino reubicar al trabajador en departamentos donde se necesite gestionar y resolver conflictos. Así Baxter estaría a cargo de cadenas de producción o líneas de montaje, por ejemplo.
Si todo va como sus ingenieros auguran, en unos años, podríamos encontrarnos a este simpático robot atendiéndonos en alguna cadena de hamburgueserías o supermercados, e incluso, clasificando archivos para una importante entidad financiera. Al fin y al cabo, Rethinks Robotics fue empresa pionera en la investigación del Sistema Solar. En 1989 ayudó a la NASA a llevar uno de los primeros vehículos a Marte. Se llamaba Sojourner.

Referencia:lavanguardia.com

lunes, 17 de septiembre de 2012

Alpha Dog, el perro robot del Pentágono que ayudará a las tropas estadounidenses



DARPA es la agencia estadounidense que financia la investigación de proyectos avanzados de «defensa». Ideas originales que puedan dar una ventaja a sus soldados en el campo de batalla. Uno de los proyectos que más ha llamado la atención en los últimos tiempos es AlphaDog, una «mula de carga» mecánica.

AlphaDog se ha diseñado para desplazarse con agilidad por terrenos difíciles, aun cuando lleva una importante carga. Rocas, grandes desniveles, suelo mojado e incluso hielo. Es capaz de recuperarse de resbalones, sortear obstáculos, subir escalones, y seguir a un soldado por donde quiera que vaya.

Durante su desarrollo se han presentado varias versiones. La primera, denominada Big Dog, causó gran revuelo en la red —acumula casi 14 millones de reproducciones en Youtube— por lo «orgánico» y biológico de sus movimientos. Parecía un ser vivo. Era el prototipo destinado a probar la estabilidad y el desplazamiento en terrenos difíciles.

Con un diseño similar se presentó Alpha Dog, destinado a aliviar el peso que tienen que transportar los soldados durante las caminatas. Su objetivo es poder llevar 180kg de peso durante más de 30 kilómetros, y ser más silencioso que Big Dog.




Se ha publicado recientemente el vídeo de la tercera versión. Ésta funciona con un motor de combustión y es capaz de seguir a un soldado concreto de manera autónoma en su camino. Desde DARPA lo denominan LS3, Legged Squad Support —«apoyo con piernas para escuadras»—. Una escuadra es la unidad militar más pequeña, y normalmente se compone de entre ocho y doce soldados.

Según aseguran ellos mismos en la descripción del vídeo, «está diseñado con las escuadras en mente», y es «significativamente más silencioso y rápido» que su antecesor Big Dog. También puede transportar más carga. En julio de 2012 comenzó un ciclo de dos años de pruebas junto con el cuerpo de Marines y la U.S. Army para concluir su desarrollo.

En este periodo se pulirán sus capacidades y se perfeccionará su desempeño en tres tareas diferentes: seguir al líder de cerca, hacerlo con una cierta libertad de movimientos y el viaje autónomo hasta un punto determinado en el mapa, sin apoyo humano.

DARPA mantiene simultáneamente varios proyectos de robots inspirados en animales para ayudar a sus tropas. Desde insectos y pájaros espía a un «guepardo» capaz de correr más rápido que un humano.

Referencia: abc

lunes, 3 de septiembre de 2012

Nico, el robot que está aprendiendo a mirarse al espejo





La nueva generación de robots humanoides podrá reconocer su imagen, o al menos eso intenta un investigador de EEUU que ha logrado que un robot identifique el reflejo de su brazo y le enseña ahora a "mirarse" al espejo.

Se llama Nico, y de momento es tan solo una estructura de cables y tornillos, aunque su creador, Justin Hart, doctorando de la Universidad de Yale, le ha puesto ojos y boca e incluso una gorra, que le dan un aspecto de simpático humanoide.

Su misión: aprender a reconocerse en el espejo para saber interpretar los objetos que tiene alrededor algo que, aparte del hombre, sólo hacen unos cuantos mamíferos y que será un gran paso en el mundo de la robótica.

Hart, científico informático y aficionado a la robótica desde niño, comenzó su doctorado en Yale en 2006 y después de hablar del tema con su director de tesis, el profesor Brian Scassellati, se le ocurrieron las primeras ideas "que se han convertido en esta investigación en curso", según contó a Efe.

'Yo', robot
Su trabajo se ha inspirado en la psicología evolutiva y la neurociencia, y trata de mejorar la robótica mediante la incorporación del "yo" en los procesos de razonamiento robótico.

El robot, ataviado con una camiseta de Yale en sus fotos para la prensa, ya ha sido programado para reconocer su brazo reflejado en un espejo, pero el objetivo de Hart es que pase la prueba del "espejo completo".

Nico "registra el movimiento de su brazo en su campo visual y aprende cómo es la estructura del brazo, cómo se mueve a través del espacio, y la relación entre el brazo y su campo visual", según explicó Hart.

El robot construye con sus dos cámaras una imagen en 3D y 2D de dónde espera ver su brazo después de un movimiento y al detectarse en el espejo, como conoce cómo actúa su brazo, sabe con precisión dónde están los objetos en el espacio sobre el que se refleja.

"Sólo se sabe que unos pocos animales son capaces de utilizar espejos como instrumentos para el razonamiento espacial en formas similares a esta", señaló Hart.

Aprende
Para el científico, lo "emocionante" es que el robot "es capaz de utilizar el conocimiento que ha aprendido sobre sí mismo para razonar sobre una cosa que hay en su entorno, el espejo, de una forma que los robots no habían sido capaces de hacer antes".

El siguiente paso en esta investigación es enseñar al robot a construir una idea de "sí mismo" más amplia que incluya su propia estructura en 3D, no sólo la de su brazo, y también información sobre colores, para que aprenda a reconocerse.

Hart quiere someter al robot a la prueba del "espejo completo", diseñada en 1970 por el profesor Gordon Gallup, que mide teóricamente en animales la capacidad que tienen de reconocer su reflejo en un espejo.

"Aunque se han hecho varios experimentos interesantes con robots y espejos en los últimos años, ninguno ha pasado todavía el test completo", algo que Hart espera que Nico haga en los próximos meses.

Con ese objetivo, su equipo ya ha hecho un trabajo previo para identificar los píxeles específicos que representan la imagen del robot cuando son vistos por la cámara que lleva instalada Nico, que son diferentes del resto de objetos registrados.

Referencia espacial
La importancia de entender el concepto del reflejo permite al robot utilizar el espejo como un instrumento de referencia sobre la posición de los objetos en el espacio según aparecen en el reflejo, en otras palabras, es como si utilizara el retrovisor de un coche.

Según Hart, éste es el primer sistema robótico diseñado para tratar de usar un espejo de esta manera, "lo que representa un importante paso hacia una arquitectura cohesiva que permita a los robots aprender sobre su cuerpo y apariencia a través de la auto-observación".

Referencia: elmundo.es

jueves, 30 de agosto de 2012

Proyecto Galatea: comunicacion de datos Quadcopter a Pc y Pc a Quadcopter

Después de 2 semanas pegandome para que funcione esto, lo he conseguido.

Antes de nada es importante presentar los nuevos componentes:

- La IMU Razor 9 y el chip USB-serie:




La IMU es la que esta a la izquierda.



El echo que haya cambiado mi acelerometro y mi giroscopio por esta IMU es principalmente por 3 causas.
Primero porque cuenta con una brújula electrónica que antes o después la iba a tener que comprar para compensar el giro y que no fuera en linea recta dando vueltas.
Segundo porque unifica los 3 componentes en uno solo a través de un microcontrolador solo para realizar las ecuaciones de Gauss lo cual libera al procesador principal (Arduino) de esta carga y centrarse en el control.
Tercero , ultimamente estaba recibiendo datos raros del eje de mi acelerometro (creo que he podido cascarlo).

Es importante decir que el firmware que lleva el Razor 9 no es precisamente la bomba, asi que para hacerlas rápido actualicé a uno que hizo entre otros Jordi Muñoz, y funciona bastante mejor.

- La placa Arduino Mega:



El echo de tener que comprar un nuevo arduino es porque la comunicacion entre varios procesadores y matlab requiere varios puertos de entrada y Arduino Uno solo posee 1, por lo cual no me valía (una compra no esperada....). Pero bueno en un principio este Arduino tiene algo mas de potencia de computo y ahora me salen las entradas y salidas por las orejas.





Por ultimo comentar cual ha sido el proceso.

1) Actualizar IMU.

2) Cargar nuestro software en el Arduino SIN conectar la IMU o el compilador nos dará un error (y cuesta bastante identificar de que es).

3) Desconectamos el USB y conectamos la IMU. Importante conectar la TX de la IMU con la RX del Arduino y viceversa.

4) Abriendo la consola comprobar que estamos recibiendo datos correctos. Nota: la IMU emite a 56k, así que el Braurade desde el Arduino para recoger datos a 56k.

5) Abrimos el Matlab y cargamos nuestro código que contendrá una parte para enlazarse con el Arduino y otra parte para leer los datos emitidos desde el Arduino y otra parte que enviara los datos al Arduino.

Todos estos tutoriales de como se comunica Matlab con Arduino y Arduino con Matlab están colgados en estradas anteriores en la seccion de "Mis robots".

A continuación añado un vídeo paso a paso.



Un saludo.
Mis Robots Proyecto Galatea Tutoriales

lunes, 27 de agosto de 2012

«Miimo», el robot jardinero de Honda

«ASIMO» ha pasado por ser uno de los robots humanoides más avanzados hasta la fecha. Capaz de correr, andar, girarse, y repetir muchos movimientos humanos, fue a comienzos de siglo uno de los grandes avances presentados por HONDA.




La marca japonesa ha lanzado un nuevo miembro robótico, «Miimo», una apuesta por los autómatas modernos. Se trata de un cortacésped inteligente que ahorrará mucho tiempo y esfuerzo a aquellos que tengan su propio jardín.

El nuevo robot es capaz de cuidar el césped adaptándose a la zona y a la extensión para no dejar ninguna zona descuidada.De aspecto poco parecido al cortacésped tradicional, «Miimo» puede mantener la hierba con una longitud de entre 20 y 50 mm. dependiendo de las necesidades.

Uno de los mayores avances de este autómata es que no almacena la hierba cortada si no que la tritura y la lanza haciendo de abono natural, guardando de ese modo la buena salud de las plantas.

No le falta de nada a «Miimo» que cuenta hasta con un sistema antirrobo. Si es levantado durante el trabajo, el robot se para, comienza a sonar una alarma y no vuelve a la marcha hasta que no se ingresa un código pin.

La fecha esperada de lanzamiento es a comienzos de 2013, y se sabe que contará con dos modelos, 300 y 500, cada uno con una capacidad para cubrir más o menos superficie.

Aún queda lejos el universo imaginado por Asimov, pero sin duda el panorama de los autómatas avanza a pasos agigantados gracias a las grandes inversión en investigación y desarrollo.

Referencia: abc.es

jueves, 23 de agosto de 2012

Proyecto Galatea: Arduino -> MatLab (comunicacion quadcopter -> PC)

Bueno pues traemos buenas nuevas, por fin funciona la comunicación Arduino -> Matlab.
La pregunta que estaba haciendo mal?. siempre no saber usa Matlab....

Bien la prueba es simple, engancho mi acelerometro a la entrada analogica 0, y envío los datos al Matlab y que los imprima desde el Matlab.

Código Arduino:

void setup() {
  // inicializar puerto serie
  Serial.begin(9600);   
}

void loop() { 
  int acelerometroX = analogRead(A0);
   // enviar
   Serial.println(acelerometroX); 
}


Código Matlab:

delete (instrfind({'Port'},{'COM3'}));
placa = serial( 'COM3' , 'BaudRate', 9600 );
fopen( placa );


while (true)
   loQueRecibo = fscanf( placa );
   loQueRecibo
end


Cuando declarais: placa = serial( 'COM3' , 'BaudRate', 9600 ). Tened en cuenta el puerto que usáis ( COM3, sera el mismo que estéis usando en el compilador de Arduino), y el BaudRate (9600), debe coincidir con el del Arduino (Serial.begin(9600)).


Con esto tenemos la comunicacion Bi-direccional conseguida entre Arduino y MatLab.
Ahora llegara lo más divertido... en próximas entregas presentare los nuevos componente comprado para el quadcopter, que reunirá la comunicacion Arduino<->Matlab con este componente nuevo.

Un saludo.
Mis Robots Proyecto Galatea

martes, 21 de agosto de 2012

Robots cortadores de espaguetis




Chef Cui es un robot hecho para rebanar los noodles que típicamente se sirven de manera regular a los comensales asiáticos, tal vez suene muy trillado pero, en países como Japón, Corea y China los fideos son un alimento muy cotidiano y la invención de un robot como este si representa una gran ayuda en la cocina de los restaurantes.

El robot que por ahora solo se vende en China solo hace dos cosas, rebanar y vaciar los noodles sobre un tazón de agua aunque, por alguna razón, le incluyeron luces, tal vez para que se vea bonito. El costo de este ayudante de cocina es de unos USD$2,000 y la idea es que pueda remplazar a un ayudante de cocina que al año ganaría unos USD$4,700 por la misma labor.




La demanda por este robot parece ser alta ya que al momento se han vendido 3000 unidades y vienen más en camino.

Referencia: fayerwayer

lunes, 20 de agosto de 2012

Crean robots blandos que cambian de color para camuflarse

Un equipo de investigadores ha desarrollado una nueva ingeniería de robots blandos de silicona que están inspirados en las criaturas como medusas y calamares. Ahora está trabajando en dar a estos robots la habilidad de camuflarse con su entorno, según un artículo publicado en la revista «Science»




Los científicos han desarrollado un sistema que permite a estos robots camuflarse en relación a un color del ambiente o adquirir colores llamativos.

Se trata de una «coloración dinámica» que, según los expertos, tendría múltiples usos, como por ejemplo ayudar a los doctores a planificar complejas cirugías o para que actúen como marcadores visuales que ayuden a las cuadrillas de búsqueda después de un desastre.

«Comenzamos a trabajar en estos robots blandos inspirados en organismos suaves como el pulpo o el calamar. Una de las características fascinantes de estos animales es su habilidad para controlar su apariencia, y eso nos inspiró a llevar esta idea más allá y explorar la coloración dinámica», explica en la nota de prensa Stephen Morin, autor principal del artículo y doctor en Química y Biología Química.

Para este investigador la importancia de esta creación es la adaptación de un modelo de sistema natural sencillo en una idea mucho más grande.

El grupo de investigación partió de varias preguntas: «¿Cómo los animales tienen formas, colores y capacidades como estas?», se cuestionó George Whitesides, líder del equipo. «La evolución quizás los llevó a tener estas formas particulares, pero ¿por qué? Una función de nuestra trabajo en robótica es darles a personas interesadas en este tipo de preguntas un sistema para probar ideas y respuestas», señala.

Robot, paso a paso
Estos robots y sus capas de color se comienzan a desarrollar a partir de modelos creados en impresos 3D y que después se convierten en moldes. La silicona es agregada, señala la nota, en estos moldes para crear microcanales, que son coronados por otra capa de silicona.

Estos mantos pueden ser creadas como hojas separadas que se ubican encima de los robots blandos o incorporados directamente a su estructura. Una vez se tiene todo el aparataje, los investigadores pueden bombear líquidos coloreados a estos canales, causando que el robot imite los colores y patrones de su ambiente.

Al bombear líquidos fríos o calientes en los canales, los investigadores también pueden hacer que los robots se camuflen térmicamente. Otras pruebas también han intentado con líquidos fluorescentes para que brillen en la oscuridad.

El peso y la flexibilidad de las capas de color no ralentizan la locomoción del robot. En estos caso de desarticulan parches que hacen un contraste del brillo similar al del medio ambiente, pero que no afectan la forma del robot.

Pero los investigadores no quieren que estos robots se limiten al camuflaje, sino que también puedan comunicarse. Hasta ahora, Morin prevé que sus robots puedan usar un sistema de localización para relacionarse con otros robots y con el público.

Como ejemplo ha citado la posibilidad de usar máquinas blandas durante la búsqueda y rescate en desastres. En situaciones delicadas, dice, un robot que resalte en su alrededor o incluso brille en la oscuridad puede ser muy útil para liderar equipos de rescate.

Referencia: abc.es



martes, 14 de agosto de 2012

Proyecto Galatea, unión con Matlab (Comunicación Matlab -> Arduino)

Bien pues continuo haciendo experimentos para el nuevo sistema de control y parece que da sus frutos, por ahora necesito conseguir una comunicacion bidireccional entre Arduino y Matlab, para monitorizar que va pasando por "su cabeza".

Por ahora de Arduino -> Matlab, me esta dandos ligeros problemas, ya que por alguna razón solo recibo desde matlab el primer dato, aunque desde el Arduino este mandado mas.

La comunicacion Matlab -> Arduino, funciona correctamente.

Os dejo un resumen del código que se necesita:

Primero arrancamos arduino con este código ( lo que hago básicamente es cambiar la velocidad de un motor desde matlab):

int ledPin = 13;
char * val ="0";

int vel = 120;
int numero = 0;
int tipoUnidad = 0;
int motor = 11;
void setup(){
   Serial.begin(9600);
   equilibrarMotores(); 

   pinMode(ledPin, OUTPUT );
}

void loop(){
   if (Serial.available() > 0) {
     val[0] = Serial.read(); // lee el byte de entrada:     
  
       int num = atoi(val);
       switch(tipoUnidad){
          case 0:
             numero += num*100;
             tipoUnidad++;
             break;
          case 1:
             numero += num*10;  
             tipoUnidad++;      
             break;
          case 2:
             numero += num; 
             analogWrite (motor,numero);                                            
             digitalWrite(ledPin, HIGH);   // enciende el LED
             delay(20);                  // espera por un segundo
             digitalWrite(ledPin, LOW);    // apaga el LED
             delay(20);             
             numero = 0; 
             tipoUnidad=0;            
            
             break;   
           default:   
             break;     
       }   

     Serial.flush();
   } 
}


Luego arrancamos el Matlab y ponemos lo siguiente:

placa = serial( 'COM3' , 'BaudRate', 9600 );
fopen( placa );

fprintf(placa,'%s','160')

El problema de todo esto (al menos que me ha surgido a mi) es que recibimos bytes y hay que tratarlos desde Arduino, y espero que si lo que queremos es un control de vuelo, este parseo no consuma demasiado calculo en la cpu del Arduino, sino no valdrá para nada.

En el   fprintf(placa,'%s','160'), puedes enviar cadenas más largas, tipo : 160145129, pero siempre (al menos para que este codigo funcione) en grupos de 3.

Se me olvidaba , Matlab posee una libreria para Arduuino de pago, (45€ creo), pero creo que no hay necesidad de pagar.

Un saludo.
Mis Robots Proyecto Galatea

Nuevo juguete, a espensas de robotizarlo

Bien, hace tiempo conocí un robotito que se vendía en Japón. Cuando lo vi estas vacaciones en un almacén de venta de todo (en una tienda china china enorme), no me pude resistir XD.

El bicho tiene ciertas carencias y puntos fuertes.

El punto fuerte , es que posee un giroscopio que ayuda mucho al control y lo segundo que es perfecto para la fase 3 de mi proyecto Galatea (por ahora vamos por la 2), si como lo leéis, el cuadcopter quiero que acabe en algo "similar".

Otro punto fuerte es el diseño, que sin ser robusto es deformable lo que hace q los componentes no se dañen (es como si tubiera un airbag alrededor).

Puntos flacos:
- Muy poca autonomía, escasamente 3 o 4 minutos.
- Motores con muy muy poca potencia (poniendo pocas  decenas de gramos extras, no es capaz de levantar el vuelo).


Mis Robots

lunes, 30 de julio de 2012

RP-VITA, un robot para la telemedicina de los creadores de Roomba

La telemedicina se ha convertido en un campo de investigación bastante interesante a la hora de desarrollar soluciones y aplicaciones de todo tipo. Todavía está un poco verde y es que las limitaciones que supone la distancia a veces son muy grandes. Sin embargo eso no quita que para ciertos casos cumpla con su cometido y sea útil.




En este mundillo existen muchos proyectos entre ellos uno que está llevando a cabo los creadores de Roomba. Con el nombre de RP-Vita, y seis millones de dólares de inversión, nace un robot para hospitales que permitirá a los médicos comunicarse con sus pacientes y poder realizar algunas pruebas y análisis sin necesidad de estar en la sala.

En la parte más visual nos encontramos con una pantalla a través de la cual el paciente podrá ver al médico a través de una videoconferencia. Debajo de esta se podrá acoplar un tablet o un ordenador para realizar diferentes acciones. La intención de este robot no es sólo ser un televisor andante sino realmente ser útil.

Para ello, será equipado con diferentes equipos que permitirá hacer diferentes pruebas y análisis para enviar la información al doctor, a la vez que esta se archiva en el historial del paciente. Eso sí, de momento no es completamente independiente y para algunas tareas necesitaremos a un asistente al lado del paciente para poder utilizar el robot.

Su autonomía de cinco horas nos hace pensar que este robot de momento sólo se utilizará para casos puntuales y no de forma más intensa. Aun así es un caso bastante interesante ya que además cuando vaya a terminarse la carga, como ocurre con las aspiradoras robóticas, volverá automáticamente a su base a conectarle a la alimentación.

De momento no hay planes para integrar este equipo en los hospitales así que tendremos que esperar para cruzarnos con este robot en el pasillo de nuestro centro médico más cercano. Lo cierto es que como solución para poblaciones pequeñas puede ser útil o cuando no hay un médico en la zona. Sin embargo, habrá que ver hasta que punto puede ser eficaz y si realmente es capaz de diagnosticar algo más que catarros.

Referencia: xataka

domingo, 22 de julio de 2012

Proyecto Galatea: Remodelacion del chasis

Bien, hay una parte de la historia de la evolucion del chasis que no mostre fotos y es complicado que se note como ha evolucionado:






















Mis Robots

Proyecto Galatea: nuevo entorno

Bien pues el lugar de entrenamiento para hacer el control de vuelo ha ido evolucionando poco a poco al igual que el cuadcopter.

Como en la pasada entrada explique, el cuadcopter fue modificado porque el chasis y el sistema montado tenian 2 problemas;
uno, que tenia mucho ruido y dos, que pesaba demasiado.
Asique aligere todo lo que pude, retire 2 de las 3 baterias, modifique la parte superior, quite el tren de aterrizaje, entre otras cosas.

Esto que supuso? Que la distribucion de pesos vario muchisimo, asique construi una estructura acorde a la nueva zona de entrenamiento, para volver a conseguir saber cuales eran las "velocidades" (PWM) de los motores que me permitian conocer el equilibrio del cuadcopter.

En el entrenador nuevo, se han creado unas medidas de seguridad:






Y para conseguir que solo dependiera de un eje, se improviso la siguiente estrucura:






En la prox entrada adjuntare un video del vuelo.
Mis Robots Proyecto Galatea

lunes, 16 de julio de 2012

Robots que cuidan de los ancianos

Tecnología. Valencia acoge un concurso internacional de tecnología para hacer la vida más fácil a personas mayores o con discapacidad en el que una universidad de Japón compite con un robot de ayuda y compañía para ancianos.




Robots de ayuda y compañía, sensores de movimiento y temperatura, cámaras avanzadas y teléfonos móviles adaptados dan forma a la tecnología que se conoce como "vida asistida por el entorno", traducción literal del inglés Ambient Assisted Living (AAL), cuyo objetivo es hacer que las personas mayores o con discapacidad que viven solas puedan residir en su casa el tiempo que deseen con suficiente autonomía.
Valencia acoge desde ayer una competición internacional única en el mundo en el campo de la AAL. En ella se evalúan los equipos, componentes, programas y aplicaciones informáticas diseñados para el seguimiento de las actividades cotidianas en el hogar de una persona con movilidad reducida. Entre los siete parámetros a examen, se presta especial atención a las caídas o a conductas de riesgo para la salud como pasar mucho tiempo en la cama, dejar de cocinar o no realizar ejercicio.

El concurso está organizado por el instituto Itaca de la Universitat Politécnica de València que trabaja en el desarrollo de las Tecnologías de la Información y Comunicación (TIC), una empresa surgida de este centro investigador, Soluciones Tecnológicas para la Salud y Bienestar (TSB), y el Departamento de Sistemas Informáticos de la Universidad de Sevilla. Los dispositivos a examen se prueban en condiciones reales en un laboratorio que reproduce el interior de una vivienda completamente amueblada.

En la segunda edición de este certamen internacional concurren cuatro universidades, tres de ellas extranjeras. La Chiba University de Japón presenta un robot de ayuda y compañía para ancianos, mientras que la Universidad Dublin City de Irlanda ha desarrollado una "senscam", una cámara avanzada que integra sensores de movimiento y navegación, capaz de detectar la actividad humana mediante el análisis de video.

Desde EE UU llega un equipo de la Carnegie Mellon/Universidad de Utah con sensores que combinan información de deambulación de la persona en el entorno con parámetros fisiológicos tales como pulsaciones de corazón, ritmo respiratorio, temperatura corporal e información de la postura de la persona. Finalmente, investigadores de la Universidad de Sevilla presentan una aplicación para móviles que permiten identificar la actividad de las personas.

Juan Antonio Álvarez, investigador de la Universidad de Sevilla y uno de los examinadores del concurso, explica que el equipo nipón "por razones económicas no ha podido trasladar el robot entero desde Japón, pero ha traído todo el equipo que permite al autómata moverse para seguir a la persona y reconocer la actividad que está haciendo".

Tecnología asequibe y barata

Los "ojos" del robot están compuestos por dos módulos de visión de una conocida marca de consolas de videojuegos, uno para evitar obstáculos y otro para seguir a la persona por todo el hogar. Esto es precisamente uno de los valores que más se tienen en cuenta en el concurso, "el utilizar la tecnología más asequible y barata posible que mejor se adapte al ámbito doméstico", comenta Juan Pablo Lázaro, director de I+D de la empresa TSB.
El coordinador científico del instituto Itaca, Carlos Fernández, insiste en la importancia de recurrir a tecnologías de amplia difusión para abaratar costes. Así, pone como ejemplo que "todos los teléfonos inteligentes Android, y también el iPhone, están equipados con un acelerómetro que se puede adaptar para convertir el móvil en un detector de caídas de las personas mayores, siempre que estas lleven el dispositivo encima".
Lázaro destaca que el fin de este robot, así como el de los sensores, va más allá de detectar caídas pues "se busca que ayuden a prevenir que la persona sufra un decaimiento en su calidad de vida, pues al reconocer las actividades cotidianas que realizan se puede medir si salen o no de casa, si dejan de cocinar, pasan mucho tiempo acostados o no hacen ejercicio".

Una aplicación valenciana en un año
Juan Pablo Lázaro, director de I+D de TSB, anunció ayer que en un año lanzarán al mercado un servicio de ayuda a las familias que cuidan de personas mayores compuesto por un sistema de sensores desarrollado por esta empresa valenciana de tecnologías para la salud derivada del instituto Itaca de la Politècnica. Estos sensores, que ya se han probado en fase de prototipo, detectan cuándo se levanta una persona, si come o realiza alguna actividad y también si sufre una caída cuando el cuidador no está en casa. Este servicio, según Lázaro, se comercializará desde 25 euros al mes, "lo mismo que cuesta el botón del pánico de las empresas de teleasistencia, hasta los 100 euros, dependiendo de las aplicaciones que se contraten". Esta compañía, que nació de la UPV hace cuatro años, emplea a 35 investigadores y desarrolladores de equipos y aplicaciones informáticas.

martes, 26 de junio de 2012

Cocorobo una aspiradora inteligente





Sharp ha desarrollado un robot de limpieza llamado Cocorobo, que utiliza el motor Cocoro de inteligencia artificial.

Este producto es el primero de una serie que tienen planificada de aparatos robóticos que pueden comunicarse con la gente.

Cocorobo dispone de un aparato de reconocimiento de voz desarrollado por Raytron, por lo que puede ser controlado por voz, por los botones o el control remoto.

También se ha dado la capacidad de saludarte, con la idea de que una aspiradora se puede comunicar como un robot mascota.



Referencia: robotic-lab.com

Diseñan en Granada un cerebelo para que robots manipulen objetos como humanos

El cerebelo facilita el aprendizaje automático del robot capaz de adaptarse a distintas situaciones.

Científicos de la Universidad de Granada (UGR) han diseñado un cerebelo artificial, que implementado en un robot, le permite manipular objetos con una alta precisión, similar a la de los humanos.

Hasta la fecha, los movimientos que la ciencia ha logrado alcanzar en los robots, aunque logran una precisión muy alta, se realizan a muy alta velocidad, con fuerzas muy grandes y un alto consumo de energía. Este enfoque industrial no puede ser utilizado en el marco de aplicaciones de robots que interactúen con humanos, ya que sería potencialmente peligroso en caso de mal funcionamiento.

Para superar este problema, los científicos de la Universidad de Granada han implementado un nuevo modelo de cerebelo artificial capaz de adaptar sus correcciones. Además también posee la capacidad de almacenar las consecuencias sensoriales o los comandos motores para predecir qué acción y movimiento concreto debe realizar el robot en cada momento durante tareas de manipulación. Este cerebelo permite articular un brazo robot de nueva generación, consiguiendo un grado de movilidad nunca antes alcanzado, ha informado la UGR.

Los investigadores han logrado que el robot realice un aprendizaje automático, al conseguir abstraer la funcionalidad de la capa de entrada de la corteza cerebral. Además, han construido dos sistemas de control de un brazo robótico que permiten un control preciso y estable durante la manipulación de objetos. La sinergia de aprendizaje entre cerebelo y control automático hace que el robot sea adaptable a condiciones cambiantes, esto es, que pueda interactuar con humanos. Las arquitecturas bio-inspiradas que han empleado combinan el enfoque de aprendizaje del error de retroalimentación y el control adaptativo predictivo.

Los responsables de este nuevo avance son los investigadores Silvia Tolu, Jesús Garrido, y Eduardo Ros Vidal, del Departamento de Arquitectura y Tecnología de Computadores de la Universidad de Granada, y Richard Carrillo (que actualmente trabaja en la Universidad de Almería).

Referencia: cadenarser.com

lunes, 18 de junio de 2012

Un coche recorre 100 kilómetros por las carreteras madrileñas sin conductor





Un sistema de navegación y posicionamiento desarrollado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) ha permitido que un vehículo, el coche 'Platero', complete un recorrido de unos 100 kilómetros sin ser manejado por un conductor.

En concreto, 'Platero' ha completado el trayecto entre el Monasterio de San Lorenzo de El Escorial y la sede del Centro de Automática y Robótica en Arganda del Rey, unos 100 kilómetros, que ha realizado a una velocidad media de 60 km/h y escoltado por agentes de la Guardia Civil.




Según ha informado el CSIC, el sistema de navegación permite al vehículo conocer su posición con un margen de error de 50 centímetros y, gracias a un sistema de visión artificial, puede reconocer la calzada y los obstáculos que encuentre a su paso.

El coche cuenta también con un sistema de conducción automática que permite al coche simular el comportamiento de un conductor humano y tomar sus propias decisiones en función del estado del tráfico y la vía.

Para la responsable del proyecto, la investigadora del Centro de Automática y Robótica (centro mixto del CSIC y la Universidad Politécnica de Madrid) Teresa de Pedro, "'Platero' representa el futuro de la conducción, en el que el vehículo es capaz de desplazarse de forma autónoma para satisfacer las necesidades humanas". El mecanismo instalado es fruto del proyecto Autopía, que se desarrolla desde hace más de 15 años.

Durante este trayecto y gracias a un sistema de comunicación entre vehículos, 'Platero' ha seguido las indicaciones del 'coche guía Clavileño', situado un tramo por delante de él.

Este 'coche guía' transmite su trayectoria a Platero con mensajes de su posición enviados 10 veces por segundo y, de esta manera, el vehículo automático conoce su propia posición y sabe hacia dónde debe dirigirse, por lo que el sistema Autopía actúa sobre los mandos del vehículo para obtener la conducción autónoma.

Conocer la calzada

"Cuando el vehículo conoce las condiciones exactas de la calzada es perfectamente capaz de circular sin la presencia de un coche guía. Por este motivo, 'Platero' no imita los movimientos del vehículo de referencia, simplemente recibe su información y actúa en consecuencia", ha explicado el CSIC.

De Pedro ha señalado que el uso del coche guía se debe a que los navegadores convencionales "no tienen mapas con la suficiente precisión ni están totalmente actualizados en términos de desvíos y accidentes".

La primera parte del recorrido ha transcurrido por vías urbanas desde la lonja del complejo monumental hasta la carretera M-600, para incorporarse después a la A-6. El trayecto por la autovía se ha realizado en sentido Madrid hasta la llegada a la M-50, por la que han discurrido hasta alcanzar la salida 22 de la A-3, donde se encuentra el Centro de Automática y Robótica.

"Este es un gran avance para crear una infraestructura de transporte más eficiente y segura", ha subrayado de Pedro, quien, sin embargo, ha reconocido que aún falta mucho trabajo para que las vías estén pobladas por coches autónomos.

El proyecto Autopía nació en 1996 y actualmente recibe financiación de dos proyectos del Plan Nacional de I+D+i; el proyecto Guiade y el proyecto Onda-F.

Referencia: lavanguardia.com

lunes, 11 de junio de 2012

El increíble robot que vuela como un murciélago

Es posible que el futuro de los micro-vehículos aéreos esté en manos de los investigadores de la Universidad Politécnica de Madrid (UPM), quienes han diseñado un pequeño robot volador inspirado en la forma y el vuelo de los murciélagos que -al igual que el mamífero que intenta copiar- es capaz de cambiar la morfología de sus alas en pleno vuelo.




Ha sido desarrollado por el Grupo de Robótica y Cibernética de la UPM y emplea un novedoso sistema muscular artificial, compuesto por materiales inteligentes que se contraen y expanden tal como lo hacen los músculos vivos.

En los últimos años hemos visto muchos robots cuyo diseño se ha inspirado en algún ser vivo. La naturaleza es una fuente de inspiración prácticamente inagotable, y los investigadores no dudan en estudiar a fondo las características de diferentes animales a la hora de diseñar un nuevo modelo. Los robots voladores no son una excepción, y hemos visto como DARPA -la unidad de investigación avanzada del Pentágono- ha sido capaz de construir un pequeño vehículo aéreo autónomo que vuela exactamente igual que un colibrí. Ahora, los investigadores del Grupo de Robótica y Cibernética de la Universidad Politécnica de Madrid (UPM) han presentado su BaTboT, un nuevo robot aéreo inspirado en las anatomía de un mamífero volador: el murciélago.

El BaTboT es capaz de modificar la morfología de sus alas en pleno vuelo, y según sus creadores podría sentar las bases para el desarrollo de una nueva generación de microvehículos aéreos (MAV, por Micro Air Vehicles). El prototipo que han presentado los expertos en robótica de la UPM utiliza un novedoso sistema de actuación basado en músculos artificiales, compuesto por “materiales inteligentes” capaces de expandirse y contraerse de la misma manera que lo hacen los músculos de los murciélagos.

El particular diseño de este robot le permite volar en entornos “difíciles”, como pequeños lugares cerrados, con un alto grado de maniobrabilidad aún a bajas velocidades. El que los únicos mamíferos con capacidad de volar hayan sido elegidos como modelo tel BaTboT puede resultar extraño para quienes no conocen su anatomía, pero lo cierto es que sus “alas”, que contienen más de dos docenas de articulaciones independientes y una membrana delgada y muy flexible que recubre el sistema oseo, son impresionantes. La alta maniobrabilidad observada en estos animales es producto de la combinación del movimiento de aleteo con la capacidad de modificar la forma de las alas durante el vuelo.

Se trata de un robot relativamente pequeño -sus alas extendidas tienen una envergadura de 50 centímetros- que mantiene las proporciones existentes en el Pteropus poliocephalus que le ha servido de inspiración. Su peso, que se ha intentado mantener lo más bajo posible de forma que la duración de sus baterías sea máxima, apenas roza los 125 gramos. Su diseño ha constituido un reto, y sus creadores han dejado de lado los motores y servomecanismos convencionales para utilizar tecnologías de actuación que copian la forma en que funcionan los músculos vivos. Se trata de unas delgadas fibras SMA (Shape Memory Alloys), que hacen las veces de bíceps y tríceps para mover las articulaciones presentes en las alas del robot.

Además de aletear, el BaTboT puede variar la forma de sus alas, todo esto mediante “músculos” que no pesan más de un gramo cada uno. A lo largo de este proyecto han colaborado biólogos de la estadounidense Universidad de Brown , expertos en la morfología de los murciélagos. El próximo paso consiste en probar el robot ejecutando vuelos que requieran de alta capacidad de maniobra. Se espera que el BaTboT sea capaz de colaborar en el control de plagas o como una suerte de “caballo de Troya volador” que se introduzca en hábitat de los murciélagos para recopilar información sobre su comportamiento.

Referencia: abc.es

lunes, 4 de junio de 2012

Mas progesos en el proyecto Galatea

Pues sigo montando el robot.



Por ahora voy a probar al nuevo circuito que se esta construyendo para tener un circuito impreso de forma profesional para intentar evitar el ruido que existe entre las conexiones.



Por ahora he ahorrado gran parte del circuito y montándola en la protoboard de Arduino.


 Ya he echo las primeras pruebas de datos que recibe con esta nueva configuración y por ahora responde bien el acelerometro, habrá que probar con el giroscopio que es el que vuelve loco a cualquiera.
Mis Robots Proyecto Galatea
 

Productos y tecnologias usadas en este blog:

  • Copyright © LuneGate™ is a registered trademark.
    Designed by Templateism. Hosted on Blogger Platform.