================================================================================= Descargado desde https://edoras.sdsu.edu/~vinge/misc/singularity.html (Original en Inglés, Traducido con plugin de Firefox el 27/03/2024) Biografia del autor: https://es.wikipedia.org/wiki/Vernor_Vinge Otros trabajos académicos: https://edoras.sdsu.edu/~vinge/misc/ ================================================================================= La Singularidad Tecnológica Venidera: Cómo sobrevivir en la era post-humana Vernor Vinge Departamento de Ciencias Matemáticas Universidad Estatal de San Diego c) 1993 por Vernor Vinge (Copias literales/traducción y distribución de esta todo el artículo está permitido en cualquier medio, siempre que se conserve la notificación.) Este artículo fue escrito para el Simposio VISION-21 patrocinado por el Centro de Investigación Lewis de la NASA y el Instituto Aeroespacial de Ohio, del 30 al 31 de marzo de 1993. También es recuperable de los informes técnicos de la NASA servidor como parte de la NASA CP-10129. Aparecía una versión ligeramente cambiada en el Nota de Invierno de 1993 de la Revisión de la Tierra. Resumen Dentro de treinta años, tendremos los recursos tecnológicos para crear inteligencia sobrehumana. Poco después, la era humana se terminará. Es tan progreso evitable? Si no se quiere evitar, puede Los eventos se guiarán para que podamos sobrevivir? Estas preguntas se investigan. Algunas posibles respuestas (y otras peligros) se presentan. Qué es La Singularidad? La aceleración del progreso tecnológico ha sido la rasgo de este siglo. Sostengo en este periódico que estamos en el borde de cambio comparable al ascenso de la vida humana en la Tierra. El preciso la causa de este cambio es la creación inminente por la tecnología de entidades con mayor inteligencia humana. Hay varios medios por el cual la ciencia puede lograr este avance (y esto es otro razón para tener confianza en que el evento ocurrirá): o El desarrollo de computadoras que están "despierden" y sobrehumanamente inteligente. (Hasta la fecha, la mayoría de la controversia en el área de IA se refiere a si podemos crear equivalencia humana en una máquina. Pero si la respuesta es "sí, podemos", entonces allí no es duda de que los seres más inteligentes pueden ser construidos Poco después. o Las grandes redes informáticas (y sus usuarios asociados) pueden "despertar arriba" como una entidad sobrehumanamente inteligente. o Las interfaces informática/humanas pueden llegar a ser tan íntimas que los usuarios puede razonablemente ser considerado sobrehumanamente inteligente. o La ciencia biológica puede encontrar maneras de mejorar sobre lo natural intelecto humano. Las tres primeras posibilidades dependen en gran parte de mejoras en el hardware informático. Progresos en el hardware informático ha siguió una curva asombrosamente constante en las últimas décadas [16]. Basado En gran medida en esta tendencia, creo que la creación de La inteligencia humana ocurrirá durante los próximos treinta años. (Charles Platt [19] ha señalado que los entusiastas de la IA han estado haciendo reclamaciones como esto durante los últimos treinta años. Sólo para no ser culpable de un ambiguedad relativa-tiempo, déjame más específico: Me sorprenderé si este evento se produce antes de 2005 o después de 2030.) Cuáles son las consecuencias de este evento? Cuando mayor que humano La inteligencia impulsa el progreso, ese progreso será mucho más rápido. De hecho, no parece haber razón por la que el progreso en sí no implicaría la creación de entidades aún más inteligentes, en un aún más corto Escala de tiempo. La mejor analogía que veo es con el pasado evolutivo: Los animales pueden adaptarse a los problemas y hacer inventos, pero a menudo no más rápido que la selección natural puede hacer su trabajo - el mundo actúa como propio simulador en el caso de selección natural. Los humanos tenemos la habilidad interiorizar el mundo y conducir "qué pasa si es" en nuestras cabezas; podemos resolver muchos problemas miles de veces más rápido que la selección natural. Ahora, creando los medios para ejecutar esas simulaciones en mucho más alto velocidades, estamos entrando en un régimen tan radicalmente diferente a nuestro ser humano. pasados como somos humanos de los animales inferiores. Desde el punto de vista humano este cambio será un despilfarro de todas las reglas anteriores, tal vez en un abrir y cerrar de ojos, un Corrida exponencial más allá de cualquier esperanza de control. Acontamientos que antes se pensó que sólo podría ocurrir en "un millón de años" (si es que alguna vez) probablemente sucederá en el próximo siglo. (En [4], Greg Bear pinta un imagen de los principales cambios que ocurren en cuestión de horas.) Creo que es justo llamar a este evento una singularidad ("el Singularidad" para los fines de este documento). Es un punto en el que nuestro Hay que descartar modelos y una nueva realidad. A medida que nos acercamos y más cerca de este punto, se cierne más vasto y vasto sobre el ser humano Aventuras hasta que la noción se convierte en un lugar común. Pero cuando finalmente Sucede que todavía puede ser una gran sorpresa y una mayor incógnita. En los años 50 fueron muy pocos los que lo vieron: Stan Ulam [27] parafraseó John von Neumann diciendo: Una conversación se centró en el progreso cada vez más acelerado de tecnología y cambios en el modo de vida humana, que da la apariencia de acercarse a alguna singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos, como los conocemos, no podía continuar. Von Neumann incluso usa el término singularidad, aunque parece que todavía está pensando en el progreso normal, no en la creación de sobrehumanos intelecto. (Para mí, la sobrehumanidad es la esencia de la Singularidad. Sin eso obtendríamos un exceso de riquezas técnicas, nunca se absorba adecuadamente (ver [24]).) En la década de 1960 se reconoció algunas de las implicaciones de inteligencia sobrehumana. Yo. J. Buen escrito [10]: Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier cualquier hombre por inteligente que sea. Dado que el diseño de las máquinas es uno de estas actividades intelectuales, una máquina ultrainteligente podría diseñar aún mejores máquinas; allí sin duda ser una "explosión de inteligencia", y la inteligencia del hombre se quedaría muy atrás. Así el primer ultrainteligente la máquina es la invención que el hombre necesita hacer, siempre que la máquina sea lo suficientemente dócil para decirnos cómo Mantenlo bajo control. ... Es más probable que, dentro del siglo XX, se construirá una máquina ultrainteligente y que será el último invento que el hombre necesita hacer. El bien ha capturado la esencia de la fuga, pero no persigue sus consecuencias más inquietantes. Cualquier máquina inteligente del tipo Describe que no sería la "herramienta" de la humanidad, más que los humanos son las herramientas de conejos o petirrojos o chimpancés. A través de los años 60 y 70 y 80, el reconocimiento del cataclismo spread [28] [1] [30] [4]. Tal vez eran los escritores de ciencia ficción que sintió el primer impacto concreto. Después de todo, el "duro" Los escritores de ciencia ficción son los que tratan de escribir historias específicas de todo lo que la tecnología puede hacer por nosotros. Cada vez más, estos escritores sintió una pared opaca a través del futuro. Una vez, pudieron poner tal fantasías millones de años en el futuro [23]. Ahora vieron eso. sus extrapolaciones más diligentes resultaron en lo incognoscible... Pronto pronto. Una vez, los imperios galácticos podrían haber parecido un dominio post-Humano. Ahora, tristemente, incluso los interplanetarios lo son. Qué hay de los 90 y los '00s y los '10s, a medida que nos deslizamos hacia el borde? Cómo se extenderá el enfoque de la Singularidad a través de la vista del mundo humano? Por un tiempo, los críticos generales de la máquina La sapiencia tendrá buena prensa. Después de todo, hasta que tengamos hardware como poderoso como cerebro humano es probablemente tonto pensar que estaremos capaz de crear una inteligencia equivalente (o mayor). (Ahí está la posibilidad descabable de que podríamos hacer un equivalente humano de hardware menos potente, si estuviera dispuesto a renunciar a la velocidad, si nosotros estaban dispuestos a conformarse con un ser artificial que era literalmente lento [29]. Pero es mucho más probable que idear el software sea un Proceso complicado, que implica muchos inicios falsos y experimentación. Si Así, entonces la llegada de máquinas autoconscientes no sucederá hasta después de el desarrollo de hardware que es sustancialmente más potente que el equipo natural de los humanos.) Pero a medida que pasa el tiempo, deberíamos ver más síntomas. El dilema se sintió por los escritores de ciencia ficción serán percibidos en otros creativos esfuerzos. (He oído a los escritores de cómics reflexivos preocuparse cómo tener efectos espectaculares cuando todo visible puede ser producida por el lugar técnicamente común.) Veremos automatización sustituir a puestos de trabajo de nivel superior y superior. Tenemos herramientas ahora mismo. (programas de matemáticas simbólicos, cad/cam) que nos liberan de la mayoría de los de bajo nivel Drudgery. O dicho de otro modo: El trabajo que es verdaderamente productivo es el dominio de una fracción de élite de la humanidad cada vez más pequeña. En la venida de la Singularidad, estamos viendo las predicciones de la verdad. El desempleo tecnológico finalmente se hace realidad. Otro síntoma de progreso hacia la Singularidad: ideas ellos mismos deberían extenderse cada vez más rápido, e incluso la voluntad más radical rápidamente se vuelve común. Cuando empecé a escribir, me pareció muy fácil. para idear ideas que tardaron décadas en la cultura conocimiento; ahora el tiempo de espera parece más como dieciocho meses. (De Por supuesto, este podría ser sólo yo perdiendo mi imaginación a medida que envejezco, pero Veo el efecto en otros también.) Como el shock en una compresibilidad flujo, la Singularidad se acerca a medida que aceleramos a través de la velocidad crítica. Y qué hay de la llegada de la propia Singularidad? Lo que puede ser dijo de su apariencia real? Ya que involucra a un intelectual Huyéndote, probablemente ocurrirá más rápido que cualquier revolución técnica vistos hasta ahora. El evento precipitado probablemente será inesperado... quizás incluso a los investigadores involucrados. ("Pero todos nuestros anteriores modelos eran catatónicos. Estábamos retocando algunos parámetros....) Si La red está lo suficientemente extendida (en sistemas integrados omnipresentes), puede parecer como si nuestros artefactos en su conjunto hubieran despertado repentinamente. Y lo que sucede un mes o dos (o un día o dos) después de eso? Yo sólo tienen analogías que señalar: El surgimiento de la humanidad. Estaremos dentro la era Post-Humana. Y por todo mi desenfrenado optimismo tecnológico, A veces pienso que estaría más cómodo si me gustara de esto. eventos trascendentales de mil años eliminan ... en lugar de veinte. Puede evitarse la Singularidad? Bueno, tal vez no suceda en absoluto: A veces trato de imaginar los síntomas que debemos esperar para ver si la Singularidad no es para desarrollarse. Están los argumentos ampliamente respetados de Penrose [18] y Searle [21] contra la practicidad de la sapiencia de la máquina. En agosto de 1992, Thinking Machines Corporation organizó un taller para investigar la pregunta "Cómo construiremos una máquina que piense" [Thearling]. Como usted podría adivinar por el título del taller, los participantes no estaban especialmente apoyando los argumentos contra la inteligencia de la máquina. De hecho, hubo acuerdo general en el que las mentes pueden existir en sustratos no biológicos y que los algoritmos son de importancia central a la existencia de las mentes. Sin embargo, hubo mucho debate sobre el poder de hardware crudo que está presente en los cerebros orgánicos. Una minoría sentida que las computadoras más grandes de 1992 estaban dentro de tres órdenes de magnitud del poder del cerebro humano. La mayoría de los participantes pactados con la estimación de Moravec [16] de que estamos de diez a cuarenta años lejos de la paridad de hardware. Y sin embargo había otra minoría que señaló [6] [20], y conjeturó que la competencia computacional de neuronas individuales puede ser mucho más alta de lo que generalmente se cree. Si es así, nuestro hardware informático actual podría ser tanto como los pedidos de Agotado del equipo que llevamos en nuestras cabezas. Si esto es cierto (o para el caso, si la crítica Penrose o Searle es Es válido), podríamos nunca ver una Singularidad. En cambio, a principios de los años '00 Encontraríamos que nuestras curvas de rendimiento de hardware comienzan a nivelarse -- esto causado por nuestra incapacidad para automatizar la complejidad del diseño trabajo necesario para soportar las curvas de tendencia de hardware. Terminaríamos con algunos hardware poderoso, pero sin la capacidad de empujarlo más lejos. El procesamiento de señales digitales comerciales podría ser impresionante, dar una apariencia analógica incluso a las operaciones digitales, pero nada alguna vez "despertaría" y nunca habría la fuga intelectual que es la esencia de la Singularidad. Probablemente sería visto como un Edad de oro... y también sería el fin del progreso. Esto es muy como el futuro predicho por Gunther Stent. De hecho, en la página 137 de [24], Stent cita explícitamente el desarrollo de la transhumana inteligencia como condición suficiente para romper sus proyecciones. Pero si la Singularidad tecnológica puede suceder, lo hará. Incluso si todos los gobiernos del mundo comprendieran la "tranquilidad" y estar en un miedo mortal a ello, el progreso hacia la meta continuaría. En la ficción, ha habido historias de leyes aprobadas que prohíben la construcción de "una máquina en forma de la mente del hombre" [12]. En de hecho, la ventaja competitiva - económica, militar, incluso artística -- de cada avance en automatización es tan convincente que la aprobación de leyes, o tener costumbres, que prohíben tales cosas simplemente aseguran que alguien de lo contrario los conseguirá primero. Eric Drexler [7] ha proporcionado una visión espectacular sobre lo lejos La mejora técnica puede desaparecer. Está de acuerdo en que las inteligencias sobrehumanas estará disponible en un futuro próximo, y que esas entidades sensumen a amenaza al statu quo humano. Pero Drexler argumenta que podemos incrustar tales dispositivos trashumantes en normas o confinamiento físico tales que sus resultados pueden ser examinados y utilizados de forma segura. Soy yo. J. Bien. Máquina ultrainteligente, con una dosis de precaución. Argumento eso. El confinamiento es intrínsecamente poco práctico. Para el caso de la Confinamiento: Imagínete confinado a tu casa con solo limitada acceso a los datos exteriores, a sus amos. Si esos maestros pensaron a un ritmo -- digamos -- un millón de veces más lento que usted, hay poco dudar de que en un período de años (tu hora) se le podría ocurrir "asesoramiento útil" que, por cierto, te liberaría. (Yo lo llamo "pensamiento rápido" forma de superinteligencia "sobrehumanidad débil". Qué tal entidad "debilidadmente sobrehumana" probablemente se quemaría en unas pocas semanas de fuera del tiempo. "Sóliba sobrehumanidad" sería más que subir la velocidad del reloj en una mente equivalente a la humana. Es difícil decirlo. Precisamente cómo sería la "sobrehumanidad fuerte", pero el La diferencia parece ser profunda. Imagina dirigir una mente de perro en lo muy alta velocidad. Mil años de vida perezosa se sumarían a cualquier humano perspicacia? (Ahora si la mente del perro estuviera inteligentemente conectada y la entonces correra a alta velocidad, podríamos ver algo diferente....) La mayoría de las especulaciones sobre la superinteligencia parece estar basada en lo débilmente sobrehumano modelo. Creo que nuestras mejores conjeturas sobre la post-Singularidad el mundo se puede obtener pensando en la naturaleza de la fuerza sobrehumanidad. Volveré a este punto más adelante en el documento.) El otro enfoque del confinamiento de Drexlerian es construir "rules". en la mente de la entidad sobrehumana creada (Leyes de Asimov). Yo piensan que las reglas de rendimiento lo suficientemente estrictas como para estar seguras también producir un dispositivo cuya habilidad era claramente inferior a lo desencarnado versiones (y por lo tanto la competencia humana favorecería el desarrollo de la esos modelos más peligrosos). Aún así, el sueño de Asimov es un maravilloso uno: Imagínense un esclavo dispuesto, que tiene 1000 veces sus capacidades en En todo. Imagina una criatura que pudiera satisfacer tus deseos seguros (lo que sea que signure) y todavía tenga el 99,9% de su tiempo libre para otros actividades. Habría un nuevo universo que nunca entendimos realmente, pero llenos de dioses benévolos (aunque uno de mis deseos podría ser convertirse en uno de ellos). Si la Singularidad no se puede prevenir o confinar, qué tan malo Podría ser la era Post-Humana? Bueno... bastante malo. Lo físico La extinción de la raza humana es una posibilidad. (O como Eric Drexler ponerlo de nanotecnología: Teniendo en cuenta todo lo que tal tecnología puede hacer, Tal vez los gobiernos simplemente decidirían que ya no necesitan ciudadanos). Sin embargo, la extinción física puede no ser la más aterradora posibilidad. Una vez más, analogías: Piensen en las diferentes formas en que nos relacionamos a los animales. Algunos de los burdos abusos físicos son inverosímiles, sin embargo... En un mundo post-Humano todavía habría un montón de nichos donde automatización humana equivalente sería deseable: sistemas incrustados en dispositivos autónomos, demonios conscientes de sí mismos en el menor funcionamiento de centristas más grandes. (Una inteligencia fuertemente sobrehumana probablemente a Sociedad de la Mente [15] con algunos componentes muy competentes.) Algunos de estos equivalentes humanos podrían ser usados para nada más que digital el procesamiento de la señal. Serían más como ballenas que humanos. Otros podría ser muy humano, pero con una unilateralidad, una dedicación. eso los pondría en un hospital mental en nuestra era. Aunque ninguno de los estas criaturas podrían ser humanos de sangre y sangre, podrían ser los Las cosas más cercanas en el nuevo entorno a lo que llamamos humano ahora. (I. J. Bien tenía algo que decir sobre esto, aunque en esta fecha tardía el El consejo puede ser discutible: Bien [11] propuso una "Regla Meta-Golden", que podría ser parafraseado como "Tratad a tus inferiores como tú serías tratados por sus superiores". Es una idea maravillosa, paradójica (y La mayoría de mis amigos no lo creen) desde el pago teórico del juego es tan difícil de articular. Sin embargo, si pudimos seguirlo, en algunos sentido que podría decir algo sobre la verosimilitud de tal bondad en este universo.) He argumentado anteriormente que no podemos impedir la Singularidad, que su venida es una consecuencia inevitable de la natural de los humanos competitividad y las posibilidades inherentes a la tecnología. Y sin embargo Nosotros somos los iniciadores. Incluso la mayor avalancha es desencadenada por cosas pequeñas. Tenemos la libertad de establecer las condiciones iniciales, hacer que las cosas sucedan de maneras menos inmínicas que otras. De curso (como con las avalanchas de inicio), puede que no esté claro lo que El empuje de guía de derecha realmente es: Otros caminos hacia la Singularidad: Amplificación de Inteligencia. Cuando la gente habla de crear seres sobrehumanamente inteligentes, usualmente están imaginando un proyecto de IA. Pero como apunté en el El comienzo de este papel, hay otros caminos hacia la sobrehumanez. Las redes informáticas y las interfaces de computadora humano parecen más mundanas que AI, y sin embargo podrían llevar a la Singularidad. Yo llamo a esto. enfoque contrastante de Inteligencia Amplificación (IA). IA es algo que se está procediendo de forma muy natural, en la mayoría de los casos ni siquiera reconocidos por sus desarrolladores por lo que es. Pero cada vez nuestra capacidad de acceder se mejora la información y comunicarla a otros, en cierto sentido hemos logrado un aumento de la inteligencia natural. Incluso ahora, el equipo de una estación de trabajo de doctorado y de computadora (incluso una fuera de la red la estación de trabajo) probablemente podría maximizar cualquier prueba de inteligencia escrita en existencia. Y es muy probable que IA sea un camino mucho más fácil a la logro de la superhumanidad que la IA pura. En humanos, el más duro Los problemas de desarrollo ya se han resuelto. Construyendo desde dentro nosotros mismos debería ser más fácil que averiguar primero lo que realmente y luego construir máquinas que son todo eso. Y hay en precedentes menos conjeturales de este enfoque. Cairns-Smith [5] ha especularon que la vida biológica pudo haber comenzado como un complemento a seguir una vida más primitiva basada en el crecimiento cristalino. Lynn Margulis [14] ha argumentado contundencia a la opinión de que el mutualismo es el gran la fuerza motrurquina en la evolución. Tenga en cuenta que no estoy proponiendo que la investigación de IA sea ignorada o menos se financió. Lo que pasa con la IA a menudo tendrá aplicaciones en AI, y viceversa. Sugiero que lo reconozcamos en la red y en la la investigación de interfaz hay algo tan profundo (y potencial salvaje) como Inteligencia Artificial. Con esa visión, podemos ver proyectos que no sean tan directamente aplicables como interfaz convencional y trabajo de diseño de red, pero que sirven para avanzar hacia la Singularidad a lo largo del camino de la IA. Estos son algunos de los posibles proyectos que se enfrentan a importancia, dado el punto de vista de AI: o Automatización del equipo de humano/ordenador: Tomar problemas que normalmente son considerado para solución puramente de máquina (como escalada de colinas problemas), y diseño de programas e interfaces que toman un ventaja de la intuición de los humanos y del hardware informático disponible. Considerando toda la rareza de la dimensión superior Problemas de escalada de colinas (y los aseados algoritmos que han sido ideadas para su solución), podría haber algunos muy interesantes pantallas y herramientas de control proporcionadas al miembro del equipo humano. o Desarrolle simbiosis humana/ordenador en el arte: Combine el gráfico capacidad de generación de máquinas modernas y la estética sensibilidad de los humanos. Por supuesto, ha habido un enorme la cantidad de investigación en el diseño de ayudas informáticas para artistas, como herramientas de ahorro de mano de obra. Sugiero que apuntemos explícitamente a un mayor fusión de la competencia, que reconocemos explícitamente la enfoque cooperativo que sea posible. Karl Sims [22] lo ha hecho maravilloso trabajo en esta dirección. o Permitir equipos humanos/ordenadores en torneos de ajedrez. Nosotros ya tener programas que puedan jugar mejor que casi todos los humanos. Pero cuánto se ha trabajado en cómo esta potencia podría ser utilizada por un humano, para conseguir algo mejor? Si se permitiera a esos equipos en al menos algunos torneos de ajedrez, podría tener lo positivo efecto en la investigación de AI que permitir computadoras en torneos había para el nicho correspondiente en IA. o Desarrollar interfaces que permitan el acceso a la computadora y la red sin exigir que el humano esté atado a un lugar, sentado delante de un ordenador. (Este es un aspecto de IA que encajaba tan bien con ventajas económicas en las que ya se está gastando mucho esfuerzo en adelante.) o Desarrollar sistemas de apoyo a la toma de decisiones más simétricos. Un popular la zona de investigación/producto en los últimos años ha sido el apoyo a la decisión sistemas. Esta es una forma de AI, pero puede estar demasiado enfocado en sistemas que son oraculares. Tanto como el programa que le da al usuario información, debe existir la idea de que el usuario dé la orientación del programa. o Utilice redes de área local para hacer equipos humanos que realmente funcionan (es decir, son más eficaces que sus miembros componentes). Esto es generalmente el área de "groupware", ya muy popular persecución comercial. El cambio de punto de vista aquí sería considerar la actividad grupal como un organismo combinado. En uno sentido, esta sugerencia podría ser considerada como el objetivo de inventar a "Reglas de Orden" para tales operaciones combinadas. Por ejemplo, enfoque de grupo podría mantenerse más fácilmente que en clásicos reuniones. Peritaje de miembros humanos individuales podría ser aislado de cuestiones de ego de tal manera que la contribución de los diferentes miembros se centra en el proyecto de equipo. Y, por supuesto, bases de datos compartidas podría ser utilizado mucho más convenientemente que en convencional Operaciones de comité. (Tenga en cuenta que esta sugerencia está dirigida al equipo operaciones más que reuniones políticas. En una configuración, la automatización descrita anteriormente simplemente haría cumplir la poder de las personas que hacen las reglas.) o Exploite la Internet mundial como combinación humana/máquina herramienta. De todos los ítems de la lista, el progreso en esto es proceder más rápido y puede llevarnos a la Singularidad antes nada más. El poder y la influencia de incluso el actual Internet está muy subestimado. Por ejemplo, creo que nuestro los sistemas informáticos contemporáneos se romperían bajo el peso de su propia complejidad si no fuera por el borde que la USENET "mente de grupo" da a la administración del sistema y apoyo a las personas.) La misma anarquía del desarrollo neto mundial es una prueba de su potencial. Como conectividad y ancho de banda y tamaño del archivo y velocidad de computadora aumenta, estamos viendo algo como Lynn La visión de Margulis [14] de la biosfera como procesador de datos recapitulado, pero a un millón de veces mayor velocidad y con millones de agentes humanamente inteligentes (holas). Los ejemplos anteriores ilustran la investigación que se puede hacer en el contexto de los departamentos de informática contemporánea. Los hay. otros paradigmas. Por ejemplo, gran parte de la obra en Artificial Inteligencia y redes neuronales se beneficiarían de una conexión más estrecha con la vida biológica. En lugar de simplemente tratar de modelar y entender vida biológica con computadoras, la investigación podría ser dirigida hacia el creación de sistemas compuestos que se basan en la vida biológica para orientación o para las características de suministro que no entendemos lo suficientemente bien Todavía para implementar en hardware. Un sueño de larga data de ciencia ficción ha ha sido cerebro directo a interfaces de ordenador [2] [28]. De hecho, hay trabajo concreto que se puede hacer (y se ha hecho) en este ámbito: o Las prótesis de Limb es un tema de aplicabilidad comercial directa. Se puede hacer transductores de erdota al silicio [13]. Esto es un pasos emocionantes y a corto plazo hacia la comunicación directa. o Eslabones directos similares en los cerebros pueden ser factibles, si el bit la tasa es baja: dada la flexibilidad del aprendizaje humano, la Los objetivos de las neuronas cerebrales podrían no tener que ser seleccionados con precisión. Incluso 100 bits por segundo sería de gran utilidad para acariciar víctimas que de otro modo estarían confinadas a menú interfaces. o Enchupar al tronco óptico tiene el potencial de anchos de banda de 1 Mbit/segundo aproximadamente. Pero para esto, necesitamos saber el arquitectura de visión a gran escala, y necesitamos colocar un enorme red de electrodos con una precisión exquisita. Si queremos nuestra conexión de alto ancho de banda para ser "aventurar" a qué caminos ya están presentes en el cerebro, el problema se vuelve mucho más intratables. Sólo pegándome una cuadrícula de receptores de alto ancho de banda en un cerebro ciertamente no lo hará. Pero supongamos que el la cuadrícula de alto ancho de banda estaba presente mientras la estructura cerebral estaba en realidad configurando, a medida que el embrión se desarrolla. Eso sugiere: o Experimentos de embriones animales. No esperaría ningún éxito de AI en los primeros años de tal investigación, pero dando cerebros en desarrollo el acceso a complejas estructuras neuronales simuladas podría ser muy interesante para las personas que estudian cómo el cerebro embrionario se desarrolla. A largo plazo, tales experimentos podrían producir animales con caminos sensoriales adicionales e intelectual interesante habilidades. Originalmente, esperaba que esta discusión de AI se diera algunos enfoques claramente más seguros de la Singularidad. (Después de todo, IA permite nuestra participación en una especie de trascendencia.) Ay, mirando de vuelta sobre estas propuestas de AI, de todo lo que estoy seguro es que ellos debe ser considerado, que nos den más opciones. Pero en cuanto a seguridad... bueno, algunas de las sugerencias son un poco aterradoras en su cara. Uno de mis críticos informales señaló que AI para individuo los humanos crea una élite bastante siniestra. Los humanos tenemos millones de años de equipaje evolutivo que nos hace considerar la competencia en un Luz mortal. Gran parte de esos plazos pueden no ser necesarios en el mundo, uno donde los perdedores asumen los trucos de los ganadores y están enganchados en las empresas de los ganadores. Una criatura que fue construida. podría ser una entidad mucho más benigna que una con un núcleo basado en fang y talon. E incluso la vista igualitaria de Internet que se despierta junto con toda la humanidad puede ser visto como una pesadilla [25]. El problema no es que la Singularidad represente simplemente la paso de la humanidad desde el centro de la estancada, pero que contradice a algunos de nuestras nociones más profundamente arraigadas de ser. Creo que echa un vistazo más de cerca a la La noción de una fuerte sobrehumanidad puede mostrar por qué. Sobrehumanidad y lo mejor que podemos pedir. Supongamos que podríamos adaptar la Singularidad. Supongamos que podríamos alcanzar nuestras esperanzas más extravagantes. Lo que entonces pediríamos: Que los propios humanos se convertirían en sus propios sucesores, que cualquier injusticia que ocurra sería templado por nuestro conocimiento de nuestro raíces. Para aquellos que permanecieron inalterados, la meta sería benigna tratamiento (quizás incluso dar a la estancia-detrás la apariencia de ser amos de esclavos divinas). Podría ser una edad de oro que también implicaba el progreso (superando la barrera del Stent). Inmortalidad (o en por lo menos toda una vida siempre que podamos hacer que el universo sobreviva [9] [3]) sería alcanzable. Pero en este mundo más brillante y amable, el filosófico Los problemas se vuelven intimidantes. Una mente que se queda en el mismo capacidad no puede vivir para siempre; después de unos pocos miles de años se vería más como un bucle de cinta que se repite que una persona. (El más escalofriante Imagen que he visto de esto está en [17].) Vivir indefinidamente largo, la mente misma debe crecer... y cuando se hace lo suficientemente grande, y mira hacia atrás... lo que los compañeros pueden tener con el alma que era originalmente? Ciertamente el ser posterior sería todo el El original era, pero mucho más. Y así incluso para el individuo, la noción de Cairns-Smith (o Lynn Margulis) de nueva vida en crecimiento Inaustralmente fuera de lo viejo debe seguir siendo válido. Este "problema" sobre la inmortalidad aparece mucho más directo maneras. La noción de ego y de conciencia de sí mismo ha sido la base de el racionalismo de cabeza dura de los últimos siglos. Sin embargo, ahora el La noción de autoconciencia está siendo atacada por el Artificial Personas de la inteligencia ("autoconciencia y otros delirios"). La Amplificación de Inteligencia socava la importancia del ego de otra dirección. El mundo post-Singularidad implicará extrema Redes de ancho de banda alta. Una característica central de fuertemente sobrehumana Las entidades probablemente serán su capacidad de comunicarse a la variable anchos de banda, incluyendo aquellos mucho más altos que el discurso o los mensajes escritos. Qué sucede cuando las piezas de ego se pueden copiar y fusionar, cuando el tamaño de una autoconciencia puede crecer o encogerse para adaptarse a la naturaleza de la problemas en consideración? Estas son características esenciales de fuerte la superhumanidad y la Singularidad. Pensando en ellos, uno empieza a sentirán lo esencialmente extraño y diferente que será la era Post-Humana No importa cuán inteligente y benignamente se traiga. Desde un ángulo, la visión encaja con muchos de nuestros sueños más felices: un lugar interminable, donde realmente podemos conocernos y entender los misterios más profundos. Desde otro ángulo, se parece mucho a lo peor. escenario de caso que imaginé antes en este periódico. Cuál es el punto de vista válido? De hecho, creo que la nueva era es simplemente demasiado diferente para encajar en el marco clásico del bien y maldad. Ese marco se basa en la idea de mentes aisladas e inmutables conectados por tenue banda baja con enlaces. Pero la post-Singularidad mundo encaja con la mayor tradición de cambio y cooperación que comenzó hace mucho tiempo (quizás incluso antes del surgimiento biológico la vida). Creo que hay nociones de ética que se aplicarían en tal una era. Investigación de IA y comunicaciones de alto ancho de banda deben mejorar este entendimiento. Veo los destellos de esto ahora, en la Regla Meta-Golden de Good, tal vez en reglas para distinguirse de otros sobre la base del ancho de banda de la conexión. Y mientras que mente y yo será mucho más lábil que en el pasado, gran parte de lo que El valor (conocimiento, memoria, pensamiento) nunca necesita perderse. Creo que Freeman Dyson lo tiene bien cuando dice [8]: "Dios es lo que se vuelve la mente cuando ha pasado más allá de la escala de nuestra comprensión". [Deseo agradecer a John Carroll de la Universidad Estatal de San Diego y Howard Davidson de Sun Microsystems para discutir el borrador de la versión de esto papel conmigo.] Fuentes anotadas [y una petición ocasional de ayuda bibliográfica] [1] Alfv n, Hannes, escribiendo como Olof Johanneson, "El fin del hombre?", Libros de premios, 1969 antes publicado como "The Tale of the Big Computadora", Coward-McCann, traducido de un libro copyright 1966 Albert Bonniers Forlag AB con copyright de traducción al inglés 1966 por Victor Gollanz, Ltd. [2] Anderson, Poul, "Kings Who Die", "If", marzo de 1962, p8-36. Reimpreso en "Seven Conquests", Poul Anderson, MacMillan Co., 1969. [3] Barrow, John D. y Frank J. Tipler, la cosmológica antrópica Principio, Oxford University Press, 1986. [4] Oso, Greg, "Blood Music", "Analog Science Fiction-Science Fact", Junio de 1983. Expandido en la novela "Blood Music", Morrow, 1985 [5] Cairns-Smith, A. G., Setenas pistas sobre el origen de la vida, Cambridge University Press, 1985. [6] Conrad, Michael Oet al., "Hacia un cerebro artificial", BioSystems, vol23, pp175-218, 1989. [7] Drexler, K. Eric, "Engines of Creation", Anchor Press/Doubleday, 1986. [8] Dyson, Freeman, Infinite in All Directions, Harper && Row, 1988. [9] Dyson, Freeman, "Física y Biología en un universo abierto", .Revista de Modern Physics, vol 51, pp447-460, 1979. [10] Bien, yo. J., "Spepeculations Concerning the First Ultraintelligent Máquina", en Advances en Computers, vol 6, Franz L. Alt y Morris Rubinoff, eds, pp31-88, 1965, Academic Press. [11] Bien, yo. J., [Ayuda. No encuentro la fuente del Meta-Golden de Good. Regla, aunque tengo el claro recuerdo de la palabra al respecto. en algún momento de la década de 1960. Con la ayuda de la red, he encontrado punteros a una serie de artículos relacionados. G. Harry Stine y Andrew Haley ha escrito sobre la siawín como podría relacionarse con extraterrestres: G. Harry Stine, "Cómo llevarse bien Extraterrestres ... o su vecino", .Analog Science Hecho- Science Fiction, febrero de 1980, p39-47.] [12] Herbert, Frank, Dune, Berkley Books, 1985. Sin embargo, esta novela fue serializado en el "Dicto" de Ciencia de la Ciencia-Science en la década de 1960. [13] Kovacs, G. T. A.et al., "Regeneration Microelectrode Array for Grabación y estimulación periferia erente", . . . . . . . . . . . . . . . . en Biomedical Engineering, v 39, n 9, pp 893-902. [14] Margulis, Lynn y Dorion Sagan, .Microcosmos, cuatro mil millones de años de Evolución de Nuestros Ancestros Microbianos, Libros de la Cumbre, 1986. [15] Minsky, Marvin, "Sociedad de la Mente", Simon y Schuster, 1985. [16] Moravec, Hans, "Mind Children", Harvard University Press, 1988. [17] Niven, Larry, "The Ethics of Madness", If, abril de 1967, pp82-108. Reimpreso en la estrella de Neutron, Larry Niven, Libros de Ballantine, 1968. [18] Penrose, R., The Emperor's New Mind, Oxford University Press, 1989. [19] Platt, Charles, Comunicación privada. [20] Rasmussen, S. Oet al., "Conexionismo Computacional dentro de Neurons: un modelo de Cytoskeletal Automata enseñando Redes Neurales", en Computación Emergente, Stephanie Forrest, ed., p428-449, MIT Prensa, 1991. [21] Searle, John R., "Minds, Brains, and Programs", en The Behavioral y Brain Sciences, v.3, Cambridge University Press, 1980. El El ensayo se reimprime en "The Mind's I", editado por Douglas R. Hofstadter y Daniel C. Dennett, Basic Books, 1981. Esto La reimpresión contiene una excelente crítica del ensayo de Searle. [22] Sims, Karl, "Interactive Evolution of Dynamical Systems", Pensando Machines Corporation, Technical Report Series (publicado en la página web de la ciudad de Atar práctica de los sistemas autónomos: Actas de la primera europea Cnference on Artificial Life, Paris, MIT Press, diciembre de 1991. [23] Stapledon, Olaf, The Starmaker, Berkley Books, 1961 (pero de el delantero probablemente escrito antes de 1937). [24] Stent, Gunther S., La Venida de la Edad de Oro: Una vista del fin de Progress, The Natural History Press, 1969. [25] Swanwick Michael, "Vacuum Flowers", serializado en Isaac Asimov Science Fiction Magazine, diciembre (?) 1986 - Febrero de 1987. Publicado nuevamente por Ace Books, 1988. [26] Thearling, Kurt, "Cómo construiremos una máquina que piensa", un taller en Thinking Machines Corporation. Comunicación personal. Ulam, S., Homenaje a John von Neumann, Bulletin of the American Sociedad Matemática, vol 64, nr 3, parte 2, mayo, 1958, p1-49. [28] Vinge, Vernor, "Bookworm, Run", "Analog", marzo de 1966, pp8-40. Reimpreso en "Verdos nombres" y otros peligros, Vernor Vinge, Baen Libros, 1987. [29] Vinge, Vernor, "True Names", "Binary Star Number 5", Dell, 1981. Reimpreso en "Verdos nombres" y otros peligros, Vernor Vinge, Baen Libros, 1987. [30] Vinge, Vernor, Primera Palabra, Omniá, enero de 1983, p10.