Amarres de Amor, Hechizos, recuperación de pareja
 
ÍndiceBuscarPublicacionesFAQRegistrarseConectarse
Últimos temas
» Los submarinos rusos ...y sus misterios .....
por gerundio Ayer a las 17:45

» La colonia de Roanoke ......misterio nunca aclarado
por gerundio Ayer a las 12:58

» Cisco de Barcarrota ,, el desaparecido ,, et d,otras historias
por gerundio Vie Mar 22 2019, 17:30

» Adivinaciòn por peces
por gerundio Vie Mar 22 2019, 12:23

» los ,,otros, españoles en Rusia
por gerundio Jue Mar 21 2019, 11:32

» Adivinación por litomancia
por gerundio Jue Mar 21 2019, 09:42

» La conspiración en la muerte de Lorca
por gerundio Miér Mar 20 2019, 18:01

» NO SEAS CORRIENTE
por javi Miér Mar 20 2019, 16:31

» Cuando los emús declararan guerra a Australia et d,otras guerras desconocidas
por gerundio Miér Mar 20 2019, 12:00

» La muerte de Stalin ...gran conspiración
por gerundio Mar Mar 19 2019, 18:08

» La pirámide de la Antártida .- ¿ ficción o verdad ?
por gerundio Mar Mar 19 2019, 12:41

» Barrabás ¿ el definitivo estudio ? teoría Alvarez Valdés
por gerundio Lun Mar 18 2019, 17:09

Anuncios

    No hay anuncios disponibles.


    Comparte | 
     

     Stephen Hawking: "La I.A. puede ser el peor error de la humanidad"

    Ir abajo 
    AutorMensaje
    Hondero 3.0
    maestr@
    maestr@
    avatar

    Desde : 31/01/2011
    He aportado : 8175

    MensajeTema: Stephen Hawking: "La I.A. puede ser el peor error de la humanidad"   Miér Mayo 07 2014, 00:59

    Stephen Hawking: "La I.A. puede ser el peor error de la humanidad"

    Parece que nos somos los únicos en sentir un cierto reparo hacia la idea de construir una máquina inteligente capaz de pensar por si misma. El laureado físico Stephen Hawking no ha dudado en calificar a la Inteligencia Artificial, o I.A. como el peor error que podría cometer la humanidad, y probablemente el último.

    Hawking no se muestra abiertamente contrario a las investigaciones en este campo, pero cree que la comunidad científica no se está preocupando lo suficiente por mantener bajo control un eventual sistema de inteligencia artificial el día que se descubra. El físico ha publicado un artículo conjunto con el especialista en computación Stuart Russell, y los físicos Max Tegmark y Frank Wilczek. Estas son sus palabras. Podéis leer artículo completo (en inglés) aquí. [vía The Independent]

    Si miramos hacia el futuro, no hay límites a lo podemos lograr en este campo [I.A.]. No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorar su propio diseño por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad, o lo que Johny Depp llama Trascendencia en la reciente película que protagoniza.

    No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.

    Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: "Llegamos en unos años", nuestra respuesta sería: "¡Ok! Avisadnos cuando estéis llegando para dejar las luces encendidas"? Probablemente no, pero eso es más o menos lo que está ocurriendo con la inteligencia artificial. Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, o el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.

    Fuente: http://es.gizmodo.com/stephen-hawking-la-i-a-puede-ser-el-peor-error-de-la-1571328845?utm_campaign=Gizmodo_facebook_SF_es&utm_source=Gizmodo_facebook_es&utm_medium=Socialflow


    O
    Volver arriba Ir abajo
     
    Stephen Hawking: "La I.A. puede ser el peor error de la humanidad"
    Volver arriba 
    Página 1 de 1.

    Permisos de este foro:No puedes responder a temas en este foro.
    Amarres de Amor con Magia Blanca :: MISCELANEA :: PRESENTACIONES, SALUD Y VIDA SANA :: CAFETERIA-
    Cambiar a: