El software de código abierto alcanzó el éxito en la transparencia y la cooperación, mientras que los asistentes de codificación de IA más avanzados de hoy a menudo se cierran, propiedad como un sistema propio.
A medida que la IA del generador se expande, los desarrolladores y las empresas preguntan si estos dos mundos realmente pueden coexistir.
Filosofía de la oposición: desarrollo abierto versus cerrado
En la superficie, la filosofía del desarrollo de código abierto y el desarrollo actual de IA parece estar completamente opuesta. Los proyectos de código abierto son transparentes: cualquiera puede inspeccionar el código, volver a usarlo bajo licencia definida y contribuir a la mejora.
Código abierto, atribución y raíz de licencia; Los desarrolladores eligen licencias que especifiquen cómo usar su código y requiere a menudo crédito para ahorrar crédito.
Los asistentes de codificación de IA, por supuesto, actúan como un modelo de llama opaca. Sugieren muchos códigos (la mayor parte de su código abierto) y sin publicar las fuentes originales.
El conocimiento de la IA es una combinación estadística, que a menudo carece de evidencia clara del código producido. Los investigadores de SNIKE han advertido que el equipo de IA Black-Box puede combinar el código de múltiples fuentes, en riesgo de violación inadvertida.
El código abierto se basa en la propiedad compartida, pero la mayoría de los equipos de IA están alimentados y cerrados por intereses corporativos. Una vez que el código expuesto a AI se escribe una vez, no hay un proceso claro para la pista, actualización o obtención del código cuando se vuelve defectuoso.
En contraste, los proyectos de código abierto generalmente publican actualizaciones y parches de protección regulares, donde los proyectos se mantienen activamente ayuda a asegurar el código.
Apertura de modelo y datos
Las empresas a menudo son reacias a abrir sus modelos o datos de capacitación con instalaciones y protección competitivas. Esta falta de transparencia puede chocar con valores de código abierto. De hecho, algunas partes de la comunidad libre/de código abierto (FOSS) han reaccionado fuertemente a su dominio contra los ataques del código AI de caja negra.
Existe un verdadero temor de que el código fuente abierto de AI Herramientas pueda apagar el código fuente abierto sin el crédito o el consentimiento adecuado, con la base de la cooperación abierta.
Sin embargo, a pesar de esta diferencia, la IA y el código abierto están profundamente intermediados. Los asistentes modernos del código de IA son propietarios para el código de código abierto, de hecho, generalmente están capacitados en millones de almacenamiento público de Githab y otros archivos de códigos abiertos. Según una encuesta, una aplicación promedio se compone de aproximadamente el 70% de los componentes de código abierto.
Puede crear debilidad en sí. En el informe de protección del código AI 2023 del SNIKE, más de la mitad del desarrollador dijo que a menudo enfrentaban problemas de seguridad en el código expuesto a la AI, debido a que la IA estaba entrenada en el código fuente abierto para que hubiera errores o debilidades familiares.
En otras palabras, los asistentes de IA se encuentran en los hombros de los gigantes de código abierto, pero también se heredan para las ‘verrugas’ de código abierto y obligaciones de licencia. Todo lo que se necesita son las técnicas que se casan con la velocidad y energía de la IA con la transparencia del código abierto y la precisión legal.
Donde dos soluciones se cruzan
Hay cierta alineación natural entre el desarrollo impulsado por la IA y el código abierto. Ambos objetivos de democratización de software: compartir códigos y permitir la codificación a través de código abierto y lenguaje natural La IA que ayuda.
Ambos pueden acelerar la innovación y la productividad. Y lo que es más importante, ambos dependen de una comunidad de desarrolladores sano. El equipo de IA no produce un código de calidad espontáneamente: han aprendido del código escrito por los desarrolladores humanos y mejoran a los usuarios a través del ciclo de reacción.
Los desarrolladores no van a renunciar a asistentes útiles de IA, no se les debe dar los beneficios, pero deben tener cuidado con el riesgo.
Se requiere equipos de IA y desarrollo de código abierto para lograr la armonía en ambos lados: los proveedores de IA deben crear protección y transparencia y los desarrolladores y comunidades deben adaptarse a sus políticas y flujo de trabajo.
La mejor práctica para una coexistencia pacífica
El equipo emergente puede comparar el código expuesto a AI con repositores públicos para mostrar información de licencia. Esto ayuda a los desarrolladores a evaluar y evitar violaciones, especialmente si los asistentes de IA pueden citar fuentes de una manera similar de referencia académica.
La forma más fácil de evitar una violación de la licencia es evitarlos en la raíz. Si un modelo de IA solo está capacitado en el código que puede ser autorizado o en el dominio público, el riesgo de revisar el código de propiedad sin permiso se reduce drásticamente.
Por ejemplo, el propio motor de seguridad basado en AI de Snack, permite continuamente el uso comercial con licencias muy específicas del almacenamiento de código abierto. En el futuro, la capacitación sobre datos permisibles se convertirá en una expectativa de referencia.
El equipo de IA debe ser un ciudadano consciente de la protección del ecosistema del desarrollador. Esto significa crear cheques para el consentimiento de licencias, así como se crean las debilidades y códigos de seguridad. Los desarrolladores de usuarios asistentes de IA deben tratar las salidas de IA con la misma perseverancia porque codificarán a un tercero desde una fuente desconocida.
Las comunidades de código abierto y los equipos empresariales deben desarrollar principios claros sobre el uso de códigos expuestos a AI. Las restricciones de la manta son de un enfoque, pero muchos proyectos pueden elegir un punto medio: permitir la contribución de AI-aliva con una supervisión adecuada, por ejemplo, se requiere la aprobación previa de cualquier código AI. La clave y la conciencia regular es la clave, por lo que los desarrolladores pueden comprender tanto los beneficios como los riesgos de la IA del generador en la codificación.
También es importante considerar exactamente lo que se está alimentando en la IA. Además de la IA, las empresas que usan herramientas de código abierto deben tener cuidado con la privacidad de los datos. Compartir ese código con un asistente de IA se puede compartir como parte del conocimiento del modelo. Simplemente comparta lo que está dispuesto a compartir y mantenga el código personal alejado de los sistemas de IA de terceros.
Un delantero adelante: código abierto y puente de IA
La manera fácil de superar la paradoja puede resolverse tomando lo mejor de ambos mundos. Ya estamos viendo el movimiento hacia ese campo intermedio, los principios de código abierto afectan la IA y el opuesto.
Los asistentes de codificación de IA son la clave para desarrollar el desarrollo a largo plazo a largo plazo. Los desarrolladores deben creer que las herramientas no dañarán su base de código, no dañará, lo que significa que no se adjunta agujeros de protección ocultos y que no se adjunten cuerdas legales ocultas.
Abriendo nuestra IA y responsabilidad en el uso de nuestro código abierto, podemos resolver la paradoja, acelerar la innovación cuando el código abierto crea éxito en primer lugar.
Enumeramos los mejores sitios para el reclutamiento de desarrolladores.
Este artículo fue producido como parte del canal de Insight Specialist TechRaderPro, donde somos la mejor y brillante mente brillante en la industria de la tecnología. Las opiniones publicadas aquí están en el autor y no son esenciales para TechroderPro o Future PLC. Si está interesado en contribuir, busque más aquí: