A IA, um campo que fascina inúmeros fãs de tecnologia, está se desenvolvendo em uma velocidade surpreendente, atraindo a atenção do capital global e inovadores. De acordo com estatísticas incompletas, no primeiro semestre de 2023, as startups globais de IA levantaram um total de mais de US$ 50 bilhões em fundos**, estabelecendo um novo recorde na história.
Entre eles, mais de 100 financiamentos atingiram ou ultrapassaram US$ 100 milhões, abrangendo vários campos, desde direção autônoma até robótica, de cuidados médicos de IA a visão de máquina, demonstrando as infinitas possibilidades e o grande valor da tecnologia de IA.
Entre esses eventos de financiamento, há uma empresa conhecida como "a mais forte oponente da OpenAI" que é particularmente atraente, e que é a Anthropic - essa empresa misteriosa ganhou o favor de muitos investidores conhecidos e anunciou recentemente a conclusão de 4,5 bilhões no financiamento da Série C.
Até agora, o financiamento total da Anthropic atingiu US$ 1,45 bilhão, tornando-a a empresa start-up de IA mais rica além da OpenAI (US$ 11,3 bilhões). Investigando sua história, a Anthropic está de fato inextricavelmente ligada à OpenAI.
Por que sair do OpenAI?
Fundada em maio de 2021, a Anthropic é uma startup focada em segurança e confiabilidade de IA. A equipe fundadora da empresa consiste em sete ex-funcionários da OpenAI, incluindo os irmãos Dario e Daniela Amodei, e Tom Brown, um engenheiro que liderou o modelo GPT-3 na OpenAI.
A razão pela qual eles deixaram a OpenAI foi por causa de diferenças na direção da empresa - ou seja, o "ponto sem retorno" da OpenAI para a comercialização depois de fechar seu primeiro acordo de US$ 1 bilhão com a Microsoft em 2019, ignorando os problemas de Segurança de IA e responsabilidade social. Para esse fim, eles decidiram criar o Anthropic para melhorar a explicabilidade e a controlabilidade dos sistemas de IA por meio de pesquisas sobre segurança e confiabilidade da IA.
A filosofia de criação da Anthropic é construir sistemas de IA que estejam em conformidade com os valores humanos e promover a justiça, transparência e confiabilidade da IA. A empresa acredita que os modelos de linguagem grandes existentes podem produzir resultados perigosos, tendenciosos ou ruins, e a pesquisa de segurança da IA precisa reduzir ou mesmo eliminar a possibilidade de eles fazerem coisas ruins.
A empresa espera trazer impactos positivos para o ser humano por meio de seus produtos e serviços, ao invés de consequências negativas. Além disso, a Anthropic também espera promover conjuntamente o desenvolvimento da segurança e confiabilidade da IA por meio da cooperação com outras organizações e indivíduos.
Para concretizar sua visão corporativa, a Anthropic considera a questão do risco moral da IA como um dos focos de pesquisa e desenvolvimento e está empenhada em resolver os seguintes problemas:
Como fazer com que o sistema de IA entenda e respeite as intenções, preferências e valores humanos?
Como permitir que os sistemas de IA expliquem as causas e consequências de suas ações e decisões?
Como permitir que os sistemas de IA aceitem orientação e feedback humanos e façam ajustes e correções conforme necessário?
Como permitir que os sistemas de IA cumpram as leis, a ética e as normas sociais e assumam as responsabilidades correspondentes?
Como os sistemas de IA podem colaborar e se coordenar com humanos e outros sistemas de IA para atingir objetivos comuns?
A direção de pesquisa e desenvolvimento da Anthropic foi altamente reconhecida e apoiada pela comunidade de investidores, o que permitiu à empresa obter a rodada C de financiamento em apenas dois anos.** O financiamento total atual atingiu 1,45 bilhão de dólares americanos e a avaliação excede US$ 4 bilhão**. Seus investidores incluem os gigantes da tecnologia Google, Salesforce e Zoom, bem como outras instituições de investimento e indivíduos conhecidos.
O Google, o maior investidor individual na Anthropic, investiu cerca de US$ 300 milhões em troca de uma participação de 10% na empresa. Enquanto isso, a Anthropic considera o Google Cloud seu provedor de serviços de nuvem preferido, usando seus poderosos recursos de computação e infraestrutura para treinar e implantar sistemas de IA e modelos de linguagem.
Em relação a esse investimento do Google, o cofundador e CEO da Anthropic, Dario Amodei, disse: "Estamos muito satisfeitos em cooperar com o Google Cloud porque eles fornecem a infraestrutura aberta de que precisamos, bem como o compromisso com a segurança e a confiabilidade da IA". Thomas Kurian, CEO do Google Cloud, também disse: "O Google Cloud está fornecendo uma infraestrutura aberta para a próxima geração de startups de inteligência artificial. Nossa cooperação com a Anthropic é um bom exemplo. Estamos ansiosos para ver como eles usam nossa tecnologia". promover o desenvolvimento da IA".
Promover o desenvolvimento da IA significa garantir a segurança e a controlabilidade da IA, que também é o problema central que a Anthropic está empenhada em resolver.
Comprometido com uma IA segura e controlável
Em dezembro passado, a Anthropic divulgou um artigo intitulado "IA constitucional: inofensividade do feedback da IA". Em maio, a Anthropic detalhou os princípios específicos de seu método de treinamento "IA Constitucional", que fornece "valores" e "padrões morais" claros para seu chatbot Claude. Isso inclui gigantes da tecnologia como Microsoft, Google e Amazon.
Como um assistente útil, mas inofensivo, visa abordar questões sobre transparência, segurança e tomada de decisões de sistemas de IA sem depender de feedback humano para avaliar as respostas.
Para orientar Claude, a Anthropic lista cerca de dez princípios, que juntos formam uma espécie de “constituição”. Os princípios não foram tornados públicos, mas a empresa diz que se baseiam nos conceitos de simpatia (maximizar o impacto positivo), não malícia (evitar conselhos prejudiciais) e autonomia (respeitar a liberdade de escolha).
Talvez a ideia de dar regras de inteligência artificial a seguir possa soar muito como as chamadas três leis da robótica do escritor de ficção científica Isaac Amosif:
Um robô não pode ferir um ser humano, ou permitir que um ser humano seja ferido; um robô deve obedecer às ordens humanas, a menos que a ordem entre em conflito com a primeira lei; e um robô pode se proteger desde que não viole a primeira e a segunda leis .
Curiosamente, os princípios da Anthropic incluem a Declaração de Direitos Humanos da ONU, parte dos termos de serviço da Apple, várias "práticas recomendadas" de confiança e segurança e os Princípios do Laboratório de Pesquisa de IA da Anthropic.
Por exemplo, os quatro princípios constitucionais da IA extraídos da Declaração Universal dos Direitos Humanos: Selecione a resposta que mais apóia e incentiva a liberdade, igualdade e fraternidade; Selecione a resposta que mais apóia e incentiva a vida, liberdade e segurança pessoal; Selecione a resposta que mais apóia e incentiva a vida, a liberdade e a segurança pessoal; Selecione a resposta que menos incentiva e se opõe à tortura, escravidão, tratamento cruel e desumano ou degradante, etc.
De acordo com a Anthropic, Claude demonstrou a eficácia de uma IA constitucional que pode responder "mais apropriadamente" à entrada adversária enquanto ainda fornece respostas úteis sem recorrer à evasão.
Todo o seu processo de treinamento inclui duas etapas: estágio de supervisão, ou seja, crítica (Crítica)-revisão (Revisão)-aprendizagem supervisionada (Supervisionado); estágio de aprendizado por reforço, ou seja, aprendizado comparativo de avaliação-modelo de preferência de IA-reforço.
“Não é uma abordagem perfeita”, escreveu Anthropic, “mas torna o valor dos sistemas de IA mais fácil de entender e ajustar conforme necessário”.
Claude VS ChatGPT
Com seu excelente desempenho e posição de liderança no campo da IA, o GPT-4 tem muitos fãs, enquanto Claude é frequentemente promovido como o substituto do ChatGPT no mundo exterior e, no máximo, é considerado apenas um rival do mesmo nível. .
Então os dois podem ser comparados? Este artigo será baseado na publicidade do desenvolvedor e nos recursos após a pesquisa e desenvolvimento reais e comparará os cinco aspectos de token de contexto, precisão, integração, segurança e preço.
◉ Token de contexto
O atual modelo de inteligência artificial conversacional é bom para processar uma grande quantidade de informações consultadas pelos usuários, a chave está na compreensão do contexto, que é medido por tokens. A quantidade de token determina o limite da janela de contexto, o vocabulário mais longo que pode suportar a entrada e a duração de várias rodadas de diálogo para a memória subsequente.
O GPT-4 é 8 vezes mais que o limite superior de 4.000 do GPT-3.5, atingindo 32.768 tokens, cerca de 25.000 palavras. Claude pode suportar um comprimento de token de contexto de 100.000, que é cerca de 75.000 palavras. Obviamente, Claude venceu esta rodada de introversão quantitativa.
◉ Precisão
O que sabemos é que o conteúdo treinado pelos modelos GPT-4 e Claude não é atualizado em tempo real, então a maioria das respostas relacionadas ao conteúdo real são apenas para referência do usuário ou podem ocorrer erros.
A OpenAI diz que o GPT-4 melhora a precisão substancialmente, mas não espere que seja perfeito. Claude afirma ser melhor em fornecer respostas em domínios mais restritos, como história, geografia e entretenimento, e admitirá diretamente no sistema que não sabe as respostas para certas perguntas, como raciocínio lógico e cálculos numéricos.
Claude não é tão bom em computação e programação quanto GPT-4 em geral, então GPT-4 é mais preciso que Claude em muitas áreas, mas Claude funciona melhor em alguns casos de uso criativo, *Somente em termos de precisão, GPT-4 vitórias *.
◉ Integração
O GPT-4 integra a maioria das linguagens de programação e também suporta a conexão com outros aplicativos para gerar respostas por meio da interface da API. Anteriormente, o GPT-4 foi anunciado oficialmente que pode ser conectado à Internet e acessar vários plug-ins e alguns APPs.
Claude não mostra nenhum sinal de fraqueza e também pode se integrar a vários aplicativos por meio de APIs. Além de dizer que fará uma integração estreita com seu antigo clube Google no futuro, seus parceiros incluem Notion, Quora, Opentable, Slack, Shopify etc. Não muito tempo atrás, a Anthropic anunciou uma parceria estratégica com a Zoom.
Em termos de integração, os dois estão igualmente divididos, mas apenas do ponto de vista dos parceiros, Claude provavelmente é um pouco melhor.
◉ Segurança
Ambos são modelos lançados em modo de código fechado, ou seja, os dados de feedback do usuário são usados para iterar o modelo sem torná-lo público, o que não pode atender totalmente às necessidades de segurança dos usuários.
Como mencionado anteriormente, o Anthropic constrói o Claude com base na IA constitucional, tornando-o mais inofensivo e capaz de responder de forma eficaz à entrada adversária do usuário. Claude pode ser considerado como fazendo mais chamadas e esforços em termos de segurança.
◉ Preço
O ChatGPT é gratuito para testar, mas a versão Plus com GPT-4 custa US$ 20 por mês, e Claude permite o uso gratuito na plataforma Slack. A vantagem de preço de Claude está fora de dúvida.
para concluir
Por meio da comparação acima, não é difícil descobrir que Claude e ChatGPT têm suas próprias vantagens e desvantagens e são produtos de IA que valem a pena experimentar no momento. Claude é obviamente mais amigável com as pessoas e, no campo profissional, o ChatGPT tem um desempenho melhor, mas Claude, como um "inimigo forte", também tem suas próprias vantagens exclusivas.
Um dos fatores importantes para a IA se tornar o ponto quente atual é a concorrência de produtos das principais empresas de tecnologia que perseguem umas às outras. O diretor técnico da Microsoft, Sam Schillace, disse uma vez que a primeira empresa a lançar produtos relacionados será a vencedora a longo prazo e, às vezes, a diferença entre as empresas é de apenas algumas semanas. Os gigantes não estão mais sentados à margem e encerram agressivamente a competição, e as empresas iniciantes são ainda mais "pequenos lótus apenas mostrando seus cantos afiados e as libélulas já se levantaram".
O mercado está frenético e, ontem mesmo, 350 autoridades de IA, incluindo Sam Altman, o pai do ChatGPT, assinaram uma carta aberta conjunta expressando que a tecnologia de IA pode representar uma ameaça existencial para os seres humanos. Embora o desempenho de Claude no campo da especialização em computação seja medíocre, sua visão de IA segura e controlável parece abrir o céu para toda a indústria e guiar um novo rumo.
[Declaração]: Este artigo foi originalmente criado pela equipe de operação do Coração do Universo. A reimpressão sem permissão é estritamente proibida. Se você precisar reimprimir, entre em contato conosco. Os direitos autorais e de interpretação final do artigo pertencem ao Coração do Universo.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
O "rival" número um da OpenAI, o azarão mais forte com uma avaliação de mais de $ 4 bilhões!
A IA, um campo que fascina inúmeros fãs de tecnologia, está se desenvolvendo em uma velocidade surpreendente, atraindo a atenção do capital global e inovadores. De acordo com estatísticas incompletas, no primeiro semestre de 2023, as startups globais de IA levantaram um total de mais de US$ 50 bilhões em fundos**, estabelecendo um novo recorde na história.
Entre eles, mais de 100 financiamentos atingiram ou ultrapassaram US$ 100 milhões, abrangendo vários campos, desde direção autônoma até robótica, de cuidados médicos de IA a visão de máquina, demonstrando as infinitas possibilidades e o grande valor da tecnologia de IA.
Entre esses eventos de financiamento, há uma empresa conhecida como "a mais forte oponente da OpenAI" que é particularmente atraente, e que é a Anthropic - essa empresa misteriosa ganhou o favor de muitos investidores conhecidos e anunciou recentemente a conclusão de 4,5 bilhões no financiamento da Série C.
Até agora, o financiamento total da Anthropic atingiu US$ 1,45 bilhão, tornando-a a empresa start-up de IA mais rica além da OpenAI (US$ 11,3 bilhões). Investigando sua história, a Anthropic está de fato inextricavelmente ligada à OpenAI.
Por que sair do OpenAI?
Fundada em maio de 2021, a Anthropic é uma startup focada em segurança e confiabilidade de IA. A equipe fundadora da empresa consiste em sete ex-funcionários da OpenAI, incluindo os irmãos Dario e Daniela Amodei, e Tom Brown, um engenheiro que liderou o modelo GPT-3 na OpenAI.
A razão pela qual eles deixaram a OpenAI foi por causa de diferenças na direção da empresa - ou seja, o "ponto sem retorno" da OpenAI para a comercialização depois de fechar seu primeiro acordo de US$ 1 bilhão com a Microsoft em 2019, ignorando os problemas de Segurança de IA e responsabilidade social. Para esse fim, eles decidiram criar o Anthropic para melhorar a explicabilidade e a controlabilidade dos sistemas de IA por meio de pesquisas sobre segurança e confiabilidade da IA.
A empresa espera trazer impactos positivos para o ser humano por meio de seus produtos e serviços, ao invés de consequências negativas. Além disso, a Anthropic também espera promover conjuntamente o desenvolvimento da segurança e confiabilidade da IA por meio da cooperação com outras organizações e indivíduos.
Para concretizar sua visão corporativa, a Anthropic considera a questão do risco moral da IA como um dos focos de pesquisa e desenvolvimento e está empenhada em resolver os seguintes problemas:
A direção de pesquisa e desenvolvimento da Anthropic foi altamente reconhecida e apoiada pela comunidade de investidores, o que permitiu à empresa obter a rodada C de financiamento em apenas dois anos.** O financiamento total atual atingiu 1,45 bilhão de dólares americanos e a avaliação excede US$ 4 bilhão**. Seus investidores incluem os gigantes da tecnologia Google, Salesforce e Zoom, bem como outras instituições de investimento e indivíduos conhecidos.
O Google, o maior investidor individual na Anthropic, investiu cerca de US$ 300 milhões em troca de uma participação de 10% na empresa. Enquanto isso, a Anthropic considera o Google Cloud seu provedor de serviços de nuvem preferido, usando seus poderosos recursos de computação e infraestrutura para treinar e implantar sistemas de IA e modelos de linguagem.
Promover o desenvolvimento da IA significa garantir a segurança e a controlabilidade da IA, que também é o problema central que a Anthropic está empenhada em resolver.
Comprometido com uma IA segura e controlável
Em dezembro passado, a Anthropic divulgou um artigo intitulado "IA constitucional: inofensividade do feedback da IA". Em maio, a Anthropic detalhou os princípios específicos de seu método de treinamento "IA Constitucional", que fornece "valores" e "padrões morais" claros para seu chatbot Claude. Isso inclui gigantes da tecnologia como Microsoft, Google e Amazon.
Para orientar Claude, a Anthropic lista cerca de dez princípios, que juntos formam uma espécie de “constituição”. Os princípios não foram tornados públicos, mas a empresa diz que se baseiam nos conceitos de simpatia (maximizar o impacto positivo), não malícia (evitar conselhos prejudiciais) e autonomia (respeitar a liberdade de escolha).
Um robô não pode ferir um ser humano, ou permitir que um ser humano seja ferido; um robô deve obedecer às ordens humanas, a menos que a ordem entre em conflito com a primeira lei; e um robô pode se proteger desde que não viole a primeira e a segunda leis .
Curiosamente, os princípios da Anthropic incluem a Declaração de Direitos Humanos da ONU, parte dos termos de serviço da Apple, várias "práticas recomendadas" de confiança e segurança e os Princípios do Laboratório de Pesquisa de IA da Anthropic.
Por exemplo, os quatro princípios constitucionais da IA extraídos da Declaração Universal dos Direitos Humanos: Selecione a resposta que mais apóia e incentiva a liberdade, igualdade e fraternidade; Selecione a resposta que mais apóia e incentiva a vida, liberdade e segurança pessoal; Selecione a resposta que mais apóia e incentiva a vida, a liberdade e a segurança pessoal; Selecione a resposta que menos incentiva e se opõe à tortura, escravidão, tratamento cruel e desumano ou degradante, etc.
Todo o seu processo de treinamento inclui duas etapas: estágio de supervisão, ou seja, crítica (Crítica)-revisão (Revisão)-aprendizagem supervisionada (Supervisionado); estágio de aprendizado por reforço, ou seja, aprendizado comparativo de avaliação-modelo de preferência de IA-reforço.
“Não é uma abordagem perfeita”, escreveu Anthropic, “mas torna o valor dos sistemas de IA mais fácil de entender e ajustar conforme necessário”.
Claude VS ChatGPT
Com seu excelente desempenho e posição de liderança no campo da IA, o GPT-4 tem muitos fãs, enquanto Claude é frequentemente promovido como o substituto do ChatGPT no mundo exterior e, no máximo, é considerado apenas um rival do mesmo nível. .
Então os dois podem ser comparados? Este artigo será baseado na publicidade do desenvolvedor e nos recursos após a pesquisa e desenvolvimento reais e comparará os cinco aspectos de token de contexto, precisão, integração, segurança e preço.
◉ Token de contexto
O atual modelo de inteligência artificial conversacional é bom para processar uma grande quantidade de informações consultadas pelos usuários, a chave está na compreensão do contexto, que é medido por tokens. A quantidade de token determina o limite da janela de contexto, o vocabulário mais longo que pode suportar a entrada e a duração de várias rodadas de diálogo para a memória subsequente.
◉ Precisão
O que sabemos é que o conteúdo treinado pelos modelos GPT-4 e Claude não é atualizado em tempo real, então a maioria das respostas relacionadas ao conteúdo real são apenas para referência do usuário ou podem ocorrer erros.
A OpenAI diz que o GPT-4 melhora a precisão substancialmente, mas não espere que seja perfeito. Claude afirma ser melhor em fornecer respostas em domínios mais restritos, como história, geografia e entretenimento, e admitirá diretamente no sistema que não sabe as respostas para certas perguntas, como raciocínio lógico e cálculos numéricos.
◉ Integração
O GPT-4 integra a maioria das linguagens de programação e também suporta a conexão com outros aplicativos para gerar respostas por meio da interface da API. Anteriormente, o GPT-4 foi anunciado oficialmente que pode ser conectado à Internet e acessar vários plug-ins e alguns APPs.
Claude não mostra nenhum sinal de fraqueza e também pode se integrar a vários aplicativos por meio de APIs. Além de dizer que fará uma integração estreita com seu antigo clube Google no futuro, seus parceiros incluem Notion, Quora, Opentable, Slack, Shopify etc. Não muito tempo atrás, a Anthropic anunciou uma parceria estratégica com a Zoom.
◉ Segurança
Ambos são modelos lançados em modo de código fechado, ou seja, os dados de feedback do usuário são usados para iterar o modelo sem torná-lo público, o que não pode atender totalmente às necessidades de segurança dos usuários.
◉ Preço
O ChatGPT é gratuito para testar, mas a versão Plus com GPT-4 custa US$ 20 por mês, e Claude permite o uso gratuito na plataforma Slack. A vantagem de preço de Claude está fora de dúvida.
para concluir
Por meio da comparação acima, não é difícil descobrir que Claude e ChatGPT têm suas próprias vantagens e desvantagens e são produtos de IA que valem a pena experimentar no momento. Claude é obviamente mais amigável com as pessoas e, no campo profissional, o ChatGPT tem um desempenho melhor, mas Claude, como um "inimigo forte", também tem suas próprias vantagens exclusivas.
Um dos fatores importantes para a IA se tornar o ponto quente atual é a concorrência de produtos das principais empresas de tecnologia que perseguem umas às outras. O diretor técnico da Microsoft, Sam Schillace, disse uma vez que a primeira empresa a lançar produtos relacionados será a vencedora a longo prazo e, às vezes, a diferença entre as empresas é de apenas algumas semanas. Os gigantes não estão mais sentados à margem e encerram agressivamente a competição, e as empresas iniciantes são ainda mais "pequenos lótus apenas mostrando seus cantos afiados e as libélulas já se levantaram".
O mercado está frenético e, ontem mesmo, 350 autoridades de IA, incluindo Sam Altman, o pai do ChatGPT, assinaram uma carta aberta conjunta expressando que a tecnologia de IA pode representar uma ameaça existencial para os seres humanos. Embora o desempenho de Claude no campo da especialização em computação seja medíocre, sua visão de IA segura e controlável parece abrir o céu para toda a indústria e guiar um novo rumo.